Message-passing neural networks (MPNNs) are the leading architecture for deep learning on graph-structured data, in large part due to their simplicity and scalability. Unfortunately, it was shown that these architectures are limited in their expressive power. This paper proposes a novel framework called Equivariant Subgraph Aggregation Networks (ESAN) to address this issue. Our main observation is that while two graphs may not be distinguishable by an MPNN, they often contain distinguishable subgraphs. Thus, we propose to represent each graph as a set of subgraphs derived by some predefined policy, and to process it using a suitable equivariant architecture. We develop novel variants of the 1-dimensional Weisfeiler-Leman (1-WL) test for graph isomorphism, and prove lower bounds on the expressiveness of ESAN in terms of these new WL variants. We further prove that our approach increases the expressive power of both MPNNs and more expressive architectures. Moreover, we provide theoretical results that describe how design choices such as the subgraph selection policy and equivariant neural architecture affect our architecture's expressive power. To deal with the increased computational cost, we propose a subgraph sampling scheme, which can be viewed as a stochastic version of our framework. A comprehensive set of experiments on real and synthetic datasets demonstrates that our framework improves the expressive power and overall performance of popular GNN architectures.


翻译:通过信件传递的神经网络(MPNN)是深造图表结构数据(主要由于其简单和可缩放性)的主导架构。 不幸的是,它显示这些结构的表达力有限。 本文提出了一个名为“ 等同子子子集成网络(ESAN) ” 的新框架来解决这个问题。 我们的主要观察是,虽然两个图表可能无法被一个 MPNN 区分开来,但它们往往包含可辨别的子绘图。 因此, 我们提议将每个图表作为一组子图, 由某些预先定义的政策衍生出来, 并使用合适的等异质结构进行处理。 我们开发了一维的 Weisfeiler-Leman (1-WL) 图形形态化测试的新型变体, 并证明从这些新的网络变体的表达性看, 有两个图表可能无法区分, 我们的方法可以增加MPNN和更清晰的子图。 此外, 我们提供了一些理论结果, 如何描述设计选择, 比如子系统选择的精度选择政策, 以及我们所选择的精度结构的精度结构, 展示了我们所选择的精度结构的精度结构。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
125+阅读 · 2021年6月4日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
系列教程GNN-algorithms之七:《图同构网络—GIN》
专知会员服务
47+阅读 · 2020年8月9日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
已删除
生物探索
3+阅读 · 2018年2月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
8+阅读 · 2021年2月19日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Arxiv
9+阅读 · 2020年10月29日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
7+阅读 · 2020年5月25日
Arxiv
3+阅读 · 2018年8月12日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
已删除
生物探索
3+阅读 · 2018年2月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关论文
Top
微信扫码咨询专知VIP会员