Graph Neural Networks (GNNs) have emerged as a flexible and powerful approach for learning over graphs. Despite this success, existing GNNs are constrained by their local message-passing architecture and are provably limited in their expressive power. In this work, we propose a new GNN architecture -- the Neural Tree. The neural tree architecture does not perform message passing on the input graph, but on a tree-structured graph, called the H-tree, that is constructed from the input graph. Nodes in the H-tree correspond to subgraphs in the input graph, and they are reorganized in a hierarchical manner such that the parent of a node in the H-tree always corresponds to a larger subgraph in the input graph. We show that the neural tree architecture can approximate any smooth probability distribution function over an undirected graph. We also prove that the number of parameters needed to achieve an $\epsilon$-approximation of the distribution function is exponential in the treewidth of the input graph, but linear in its size. We prove that any continuous $\mathcal{G}$-invariant/equivariant function can be approximated by a nonlinear combination of such probability distribution functions over $\mathcal{G}$. We apply the neural tree to semi-supervised node classification in 3D scene graphs, and show that these theoretical properties translate into significant gains in prediction accuracy, over the more traditional GNN architectures. We also show the applicability of the neural tree architecture to citation networks with large treewidth, by using a graph sub-sampling technique.


翻译:神经树结构( GNNs) 是一个灵活而有力的方法, 用于在图形上学习。 尽管取得了这一成功, 现有的 GNNs 仍然受到本地信息传递结构的限制, 并且其表达力也受到限制。 在此工作中, 我们提议一个新的 GNN 结构( 神经树 ) 。 神经树结构在输入图上并不显示信息传递方式, 而是在从输入图中构造的树结构图上, 称为 H树。 H树的节点与输入图中的子图相对应, 并且以等级方式重组, 使得 H树的传统节点的母端始终与输入图中的更大的子图相匹配。 我们显示, 神经树结构结构可以比任何光亮的概率分布功能, 而在输入图的树结构中, 我们证明, 连续的 $macal 直径直径直径网络的直径直径值 { GG} 直径直径直径直径直径直径直径的直径直径直径直径直径直径直径直径直径直径直径直径直线的直径直径直径直径直径, 。 我们证明, 直径直径直径直的直的直径直径直径直直的直直直直直直的直直直的直的直的直直直向直向直向直的直的直的直的直的直向直径直径直向直直的直的直的直的直的直的直的直的直的直的直的直的直方向的直方向的直方向直方向直方方方方方形的直方方形的直的直的直方向的直的直方形的直方形的直的直的直方形的直方形的直方形的直方形的直的直方方方方方方方方方的直方方方方方方方方方方方方方方方方方方方方的直方的直方的直方方方方方方方方方方方方方形的直方方方方方方形的直方形的直方方方方方方方方形方形方方方方方方方方方方方方方方方方方

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年12月28日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
13+阅读 · 2021年7月20日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年12月28日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
13+阅读 · 2021年7月20日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
3+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员