【NeurIPS 2022】带有自适应节点采样的层次图Transformer

2022 年 10 月 12 日 专知


Transformer体系结构在包括自然语言处理和计算机视觉在内的许多领域都取得了显著的成功。然而,当涉及到图结构数据时,transformer没有取得具有竞争力的性能,特别是在大型图上。本文指出了当前图transformer的主要不足:(1)图transformer中现有的节点采样策略与图特征和训练过程无关。(2)大多数抽样策略只关注局部邻域,而忽略了图中的长期依赖关系。我们对合成数据集进行了实验研究,表明现有的采样策略是次优的。为了解决上述问题,我们将Graph Transformer中的节点抽样优化策略制定为对手强盗问题,其中奖励与注意力权重相关,并可以在训练过程中变化。同时,我们提出了一种具有图粗化的分层注意力方案,以捕获远程交互,同时降低计算复杂度。最后,我们在真实数据集上进行了大量的实验,以证明我们的方法优于现有的图Transformer和流行的GNN。我们的代码是开源的,网址是https://github.com/zaixizhang/ANS-GT。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“HGTS” 就可以获取【NeurIPS 2022】带有自适应节点采样的层次图Transformer》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
0

相关内容

【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
67+阅读 · 2021年4月27日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
25+阅读 · 2020年12月17日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
【NeurIPS 2021】实例依赖的偏标记学习
专知
1+阅读 · 2021年11月28日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月21日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
67+阅读 · 2021年4月27日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
25+阅读 · 2020年12月17日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员