【ICML2022】深入研究置换敏感的图神经网络

2022 年 7 月 31 日 专知
深入研究置换敏感的图神经网络



论文链接:

https://www.zhuanzhi.ai/paper/da818de2d710f7cb9087582587f6240f

代码链接:

https://github.com/zhongyu1998/PG-GNN

演示链接:

https://github.com/zhongyu1998/PG-GNN/blob/main/demo.mp4


图与邻接矩阵的置换不变性是图神经网络(GNN)的首要要求,传统模型通过置换不变的聚合操作来满足这一前提条件。然而,这种高度对称的置换不变聚合方式假定所有邻居结点的地位均等,可能会忽略邻居结点与邻居结点之间的相互关系,进而阻碍 GNN 的表达能力。


与置换不变相反,置换敏感的聚合函数对于结点顺序非常敏感,可以看作是一种“对称性破缺”机制,打破了邻居结点的均等地位。这样一来,聚合函数可以显式地建模邻居结点之间的内在关系(如二元依赖),捕获两个邻居结点之间是否存在连接,从而识别并利用局部的图子结构来提高表达能力。


尽管置换敏感的聚合函数比置换不变的聚合函数具有更加强大的表达能力,但是还需要额外考虑所有n!种置换来保证泛化能力,在计算复杂度上面临着巨大的挑战。为了解决这一问题,本文利用置换群(permutation group)设计了一种新颖的置换敏感聚合机制,通过置换采样策略采样少量具有代表性的置换,捕获邻居与邻居之间的二元依赖,从而高效地提升 GNN 的表达能力:研究员们证明了所提出的方法严格地比二维 Weisfeiler-Lehman(2-WL)图同构测试更强大,并且能够区分一些 3-WL 测试无法区分的非同构图对;此外,相比于传统方法需要考虑所有 n! 种置换,本文所提出的方法能够达到线性的置换采样复杂度。


图2:考虑中心结点 v 和5个邻居结点的简单模型示例


综合而言,本文基于置换敏感的聚合机制设计了一种强大而高效的图神经网络,它在保证表达能力的同时,先后借助近似置换不变性的思想与线性置换采样策略,显著降低了计算复杂度。如何利用置换敏感的图神经网络在表达能力上的天然优势,在表达能力和计算复杂度之间寻找均衡,将是未来富有前景的研究方向。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PSGN” 就可以获取【ICML2022】深入研究置换敏感的图神经网络》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
2

相关内容

【ICML2022】图神经网络的局域数据增强方法
专知会员服务
30+阅读 · 2022年7月24日
【ICML2022】深入探讨置换敏感图神经网络
专知会员服务
6+阅读 · 2022年6月1日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
29+阅读 · 2021年5月21日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
专知会员服务
42+阅读 · 2020年7月7日
ICML 2022 | 图神经网络的局部增强
PaperWeekly
3+阅读 · 2022年8月4日
深入探讨置换敏感的图神经网络
图与推荐
0+阅读 · 2022年6月8日
【ICML2022】深入探讨置换敏感图神经网络
去伪存真:因果约束下的图神经网络泛化
PaperWeekly
0+阅读 · 2022年2月10日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
28+阅读 · 2021年10月1日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
10+阅读 · 2020年6月12日
已删除
Arxiv
32+阅读 · 2020年3月23日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
19+阅读 · 2018年6月27日
VIP会员
相关VIP内容
【ICML2022】图神经网络的局域数据增强方法
专知会员服务
30+阅读 · 2022年7月24日
【ICML2022】深入探讨置换敏感图神经网络
专知会员服务
6+阅读 · 2022年6月1日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
29+阅读 · 2021年5月21日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
专知会员服务
42+阅读 · 2020年7月7日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
28+阅读 · 2021年10月1日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
10+阅读 · 2020年6月12日
已删除
Arxiv
32+阅读 · 2020年3月23日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
19+阅读 · 2018年6月27日
Top
微信扫码咨询专知VIP会员