图神经网络(GNNs)已经成功地用于许多涉及图结构数据的问题,实现了最先进的性能。GNN通常采用消息传递方案,其中每个节点使用置换不变聚合函数从其邻居聚合信息。经过严格检查的标准选择(如平均值或和聚合函数)功能有限,因为它们无法捕获相邻函数之间的交互。在这项工作中,我们使用一个信息理论框架来形式化这些交互作用,特别是包括协同信息。在此定义的驱动下,我们引入了图排序注意力层(GOAT),这是一种新颖的GNN组件,用于捕获邻域节点之间的交互。这是通过一种注意力机制来学习局部节点顺序,并使用循环神经网络聚合器处理有序表示来实现的。这种设计允许我们使用一个排列敏感的聚合器,同时保持拟议的GOAT层的排列等效。GOAT模型展示了它在捕获复杂信息的图指标(如中间性中心性和节点的有效大小)建模方面提高的性能。在实际用例中,通过在几个真实的节点分类基准测试中取得的成功,它的卓越建模能力得到了证实。

https://www.zhuanzhi.ai/paper/367986d1916e281d7e097fc058bfeb6e

成为VIP会员查看完整内容
11

相关内容

AAAI2021 | 学习预训练图神经网络
专知会员服务
103+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
33+阅读 · 2021年1月27日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
27+阅读 · 2021年1月4日
【AAAI2021】记忆门控循环网络
专知会员服务
45+阅读 · 2020年12月28日
【AAAI2021】层次推理图神经网络
专知会员服务
60+阅读 · 2020年12月27日
专知会员服务
85+阅读 · 2020年12月22日
专知会员服务
104+阅读 · 2020年12月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
73+阅读 · 2020年12月18日
AAAI 2022 | 正交图神经网络
PaperWeekly
0+阅读 · 11月17日
AAAI2022@腾讯 | 多任务推荐系统中的跨任务知识蒸馏
机器学习与推荐算法
0+阅读 · 3月29日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
12+阅读 · 4月12日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
37+阅读 · 2020年7月14日
Arxiv
10+阅读 · 2020年6月12日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
25+阅读 · 2018年2月27日
VIP会员
相关VIP内容
AAAI2021 | 学习预训练图神经网络
专知会员服务
103+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
33+阅读 · 2021年1月27日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
27+阅读 · 2021年1月4日
【AAAI2021】记忆门控循环网络
专知会员服务
45+阅读 · 2020年12月28日
【AAAI2021】层次推理图神经网络
专知会员服务
60+阅读 · 2020年12月27日
专知会员服务
85+阅读 · 2020年12月22日
专知会员服务
104+阅读 · 2020年12月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
73+阅读 · 2020年12月18日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员