深入探讨置换敏感的图神经网络

2022 年 6 月 8 日 图与推荐

图与邻接矩阵的置换不变性是图神经网络(GNNs)的首要要求,传统模型通过置换不变的聚合操作来满足这一前提条件。然而,这种置换不变的方式可能会忽略邻居与邻居之间的相互关系,进而阻碍GNN的表达能力。为了解决这一问题,本工作利用置换群(permutation groups)设计了一种新颖的置换敏感(与置换不变相反)聚合机制,通过置换采样捕获邻居与邻居之间的成对相关性,从而高效地提升GNN的表达能力:我们证明了所提出的方法严格地比二维Weisfeiler-Lehman(2-WL)图同构测试更强大,并且能够区分一些3-WL测试无法区分的非同构图对;此外,我们还证明了所提出的方法实现了线性的置换采样复杂度。综合而言,本工作通过置换敏感聚合机制设计了一种强大而高效的图神经网络,它在保证表达能力的同时,先后借助近似置换不变性的思想与线性置换采样策略,从而显著降低了计算复杂度。在多个合成数据集和真实数据集上的大量实验验证了所提出模型的优越性。


登录查看更多
0

相关内容

【ICML2022】深入研究置换敏感的图神经网络
专知会员服务
15+阅读 · 2022年7月31日
【ICML2022】深入探讨置换敏感图神经网络
专知会员服务
6+阅读 · 2022年6月1日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
37+阅读 · 2020年11月24日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
【ICML2022】深入探讨置换敏感图神经网络
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
图神经网络可以玩AI制药吗?
图与推荐
0+阅读 · 2021年11月20日
图神经网络+推荐系统的最新进展
图与推荐
1+阅读 · 2021年11月2日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
27+阅读 · 2020年5月16日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
162+阅读 · 2019年2月14日
图神经网络综述:模型与应用
PaperWeekly
195+阅读 · 2018年12月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
27+阅读 · 2020年6月19日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
11+阅读 · 2018年5月21日
VIP会员
相关VIP内容
【ICML2022】深入研究置换敏感的图神经网络
专知会员服务
15+阅读 · 2022年7月31日
【ICML2022】深入探讨置换敏感图神经网络
专知会员服务
6+阅读 · 2022年6月1日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
50+阅读 · 2021年5月19日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
37+阅读 · 2020年11月24日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
相关资讯
【ICML2022】深入探讨置换敏感图神经网络
图神经网络适合做推荐系统吗?
机器学习与推荐算法
1+阅读 · 2021年12月15日
图神经网络可以玩AI制药吗?
图与推荐
0+阅读 · 2021年11月20日
图神经网络+推荐系统的最新进展
图与推荐
1+阅读 · 2021年11月2日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
27+阅读 · 2020年5月16日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
162+阅读 · 2019年2月14日
图神经网络综述:模型与应用
PaperWeekly
195+阅读 · 2018年12月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
相关论文
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
27+阅读 · 2020年6月19日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
11+阅读 · 2018年5月21日
Top
微信扫码咨询专知VIP会员