Transformer体系结构在包括自然语言处理和计算机视觉在内的许多领域都取得了显著的成功。然而,当涉及到图结构数据时,transformer没有取得具有竞争力的性能,特别是在大型图上。本文指出了当前图transformer的主要不足:(1)图transformer中现有的节点采样策略与图特征和训练过程无关。(2)大多数抽样策略只关注局部邻域,而忽略了图中的长期依赖关系。我们对合成数据集进行了实验研究,表明现有的采样策略是次优的。为了解决上述问题,我们将Graph Transformer中的节点抽样优化策略制定为对手强盗问题,其中奖励与注意力权重相关,并可以在训练过程中变化。同时,我们提出了一种具有图粗化的分层注意力方案,以捕获远程交互,同时降低计算复杂度。最后,我们在真实数据集上进行了大量的实验,以证明我们的方法优于现有的图Transformer和流行的GNN。我们的代码是开源的,网址是https://github.com/zaixizhang/ANS-GT。

成为VIP会员查看完整内容
28

相关内容

【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
51+阅读 · 2021年5月30日
NeurIPS'22 | 具有自适应读出的图神经网络
图与推荐
1+阅读 · 2022年11月11日
【WSDM2022】具有分层注意力的表示学习
图与推荐
1+阅读 · 2021年11月17日
TOIS'21 | 第一个基于多关系图的任务驱动GNN框架
图与推荐
0+阅读 · 2021年10月26日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年11月11日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
14+阅读 · 2020年9月1日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
27+阅读 · 2020年6月19日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
51+阅读 · 2021年5月30日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月11日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
14+阅读 · 2020年9月1日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
27+阅读 · 2020年6月19日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
24+阅读 · 2018年10月24日
微信扫码咨询专知VIP会员