Deep learning methods for graphs achieve remarkable performance on many node-level and graph-level prediction tasks. However, despite the proliferation of the methods and their success, prevailing Graph Neural Networks (GNNs) neglect subgraphs, rendering subgraph prediction tasks challenging to tackle in many impactful applications. Further, subgraph prediction tasks present several unique challenges, because subgraphs can have non-trivial internal topology, but also carry a notion of position and external connectivity information relative to the underlying graph in which they exist. Here, we introduce SUB-GNN, a subgraph neural network to learn disentangled subgraph representations. In particular, we propose a novel subgraph routing mechanism that propagates neural messages between the subgraph's components and randomly sampled anchor patches from the underlying graph, yielding highly accurate subgraph representations. SUB-GNN specifies three channels, each designed to capture a distinct aspect of subgraph structure, and we provide empirical evidence that the channels encode their intended properties. We design a series of new synthetic and real-world subgraph datasets. Empirical results for subgraph classification on eight datasets show that SUB-GNN achieves considerable performance gains, outperforming strong baseline methods, including node-level and graph-level GNNs, by 12.4% over the strongest baseline. SUB-GNN performs exceptionally well on challenging biomedical datasets when subgraphs have complex topology and even comprise multiple disconnected components.


翻译:图表的深深学习方法在许多节点和图表级的预测任务中取得了显著的成绩。然而,尽管方法及其成功,盛行的图形神经网络(GNN)忽视了子集,使得下游预测任务在许多影响性应用中难以应对。此外,下游预测任务提出了若干独特的挑战,因为下游预测任务可能具有非三边的内部地形学,但也包含与其所存在的底图相对应的位置和外部连通信息的概念。在这里,我们引入了Sub-GNNN,一个子图神经网络,以学习分解的子表层表示。特别是,我们提议了一个新的子图谱路由路径传输机制,在子图各组成部分之间传播神经信息,并在基本图中随机抽取锚定的锚定补补,产生高度精确的子图表示,因为子图结构结构的不同方面,我们提供经验证据,说明这些渠道编码了其预定的特性。我们设计了一系列新的合成和真实世界的子图解数据集。特别是,我们提出了一个新的子图谱系分集分集分集分集的新的分集路路机制,在以下各组之间传播新的分集结果,用于Borphiralalal-Calalalalalalalbormal lausal rograal rographal del结果,Bal labal rographal labal labal robal labal labal labal roal labal roal roal labal labal labal labal laveal del drocal lad drod drocal del drocal drod dres labal labal lad sal labal labal labal labal labal labal labal real labal labal labal labal roal robal labal roal dal dal dal labal labal dal dal dal labal labal labal labal labal labal labal roal ro

27
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Github项目推荐 | 图神经网络(GNN)相关资源大列表
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关VIP内容
相关资讯
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Github项目推荐 | 图神经网络(GNN)相关资源大列表
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
相关论文
Arxiv
15+阅读 · 2019年4月4日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员