针对图数据的Transformer正在被越来越广泛地研究,并在许多学习任务中取得成功。图归纳偏差对于Graph Transformers至关重要,之前的工作通过使用信息传递模块和/或位置编码来加入这些偏差。然而,使用信息传递的Graph Transformers继承了信息传递的已知问题,并且与在其他领域中使用的Transformers显著不同,这使得研究进展的迁移变得更加困难。另一方面,没有使用信息传递的Graph Transformers在较小的数据集上的表现通常较差,在这种情况下,归纳偏差更为重要。为了弥合这个鸿沟,我们提出了Graph Inductive bias Transformer(GRIT)—一种新的Graph Transformer,它在不使用信息传递的情况下融合了图归纳偏差。GRIT基于几个从理论和实证上都得到证明的架构变化,包括:使用随机游走概率初始化的学习相对位置编码,一种可以更新节点和节点对表示的灵活的注意力机制,以及在每一层注入度信息。我们证明GRIT是有表现力的——它可以表示最短路径距离和各种图传播矩阵。GRIT在各种图数据集中实现了最新的实证性能,这显示了不使用信息传递的Graph Transformers所能够带来的强大能力。

成为VIP会员查看完整内容
25

相关内容

Graph Transformer近期进展
专知会员服务
61+阅读 · 2023年1月5日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
29+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2023】图序注意力网络
专知
5+阅读 · 2022年11月24日
IJCAI 2022 | 超越同质性的图神经网络
PaperWeekly
0+阅读 · 2022年9月6日
【ICML2022】熵因果推理:图的可辨识性
专知
1+阅读 · 2022年8月6日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年7月18日
Arxiv
17+阅读 · 2021年3月29日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
12+阅读 · 2021年2月19日
Arxiv
27+阅读 · 2020年6月19日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关VIP内容
Graph Transformer近期进展
专知会员服务
61+阅读 · 2023年1月5日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
29+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2023年7月18日
Arxiv
17+阅读 · 2021年3月29日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
12+阅读 · 2021年2月19日
Arxiv
27+阅读 · 2020年6月19日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
12+阅读 · 2018年9月15日
微信扫码咨询专知VIP会员