Graph Neural Networks (GNNs) are a wide class of connectionist models for graph processing. They perform an iterative message passing operation on each node and its neighbors, to solve classification/ clustering tasks --- on some nodes or on the whole graph --- collecting all such messages, regardless of their order. Despite the differences among the various models belonging to this class, most of them adopt the same computation scheme, based on a local aggregation mechanism and, intuitively, the local computation framework is mainly responsible for the expressive power of GNNs. In this paper, we prove that the Weisfeiler--Lehman test induces an equivalence relationship on the graph nodes that exactly corresponds to the unfolding equivalence, defined on the original GNN model. Therefore, the results on the expressive power of the original GNNs can be extended to general GNNs which, under mild conditions, can be proved capable of approximating, in probability and up to any precision, any function on graphs that respects the unfolding equivalence.


翻译:神经网络图( GNNs) 是用于图形处理的广泛的连接模型。 它们在每个节点及其周边执行迭接信息传递操作, 以解决分类/ 集群任务 -- -- 在某些节点或整个图上 -- -- 收集所有这类信息, 不论其顺序如何。 尽管属于该类的不同模型之间存在差异, 大部分它们都采用相同的计算方法, 以本地集成机制为基础, 直观地说, 本地计算框架主要负责 GNS 的表达力 。 在本文中, 我们证明 Weisfeiler- Lehman 测试在图形节点上产生了与原始 GNN 模型定义的正向等值完全对应的等效关系 。 因此, 原始 GNNs 的表达力结果可以扩展至普通 GNNs, 在温和的条件下, 可以证明在尊重正在形成的等值的图形上的任何功能都能够适应、 概率和精确度。

0
下载
关闭预览

相关内容

图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
39+阅读 · 2020年8月22日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月17日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
Arxiv
9+阅读 · 2020年10月29日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
23+阅读 · 2018年10月1日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年8月17日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
Arxiv
9+阅读 · 2020年10月29日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
23+阅读 · 2018年10月1日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
Top
微信扫码咨询专知VIP会员