We present GraphMix, a regularization method for Graph Neural Network based semi-supervised object classification, whereby we propose to train a fully-connected network jointly with the graph neural network via parameter sharing and interpolation-based regularization. Further, we provide a theoretical analysis of how GraphMix improves the generalization bounds of the underlying graph neural network, without making any assumptions about the "aggregation" layer or the depth of the graph neural networks. We experimentally validate this analysis by applying GraphMix to various architectures such as Graph Convolutional Networks, Graph Attention Networks and Graph-U-Net. Despite its simplicity, we demonstrate that GraphMix can consistently improve or closely match state-of-the-art performance using even simpler architectures such as Graph Convolutional Networks, across three established graph benchmarks: Cora, Citeseer and Pubmed citation network datasets, as well as three newly proposed datasets: Cora-Full, Co-author-CS and Co-author-Physics.


翻译:我们介绍了基于半监督的图形神经网络物体分类的正规化方法GreatMix。 我们提议通过参数共享和内推法正规化,与图形神经网络联合培训一个完全连接的网络。 此外,我们还从理论上分析了GreaphMix如何改进基本图形神经网络的通用界限,而没有对“聚合”层或图形神经网络的深度作出任何假设。我们实验性地验证了这一分析,将GreaphMix应用到图集网络、图集关注网络和图集-U-网络等各种结构中。尽管它很简单,但我们证明GreaphMix可以使用更简单的结构,例如图形革命网络,在以下三个既定的图形基准上不断改进或密切匹配最新业绩:Cora、Citeseer和Pubmed引用网络数据集,以及三个新提议的数据集:Cora-Full、共同作者-CS和共同作者-Physic。

4
下载
关闭预览

相关内容

【KDD2020】图神经网络:基础与应用,322页ppt
专知会员服务
134+阅读 · 2020年8月30日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
必读的7篇IJCAI 2019【图神经网络(GNN)】相关论文-Part2
专知会员服务
60+阅读 · 2020年1月10日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
互信息论文笔记
CreateAMind
23+阅读 · 2018年8月23日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks教程
全球人工智能
10+阅读 · 2017年11月24日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
38+阅读 · 2020年12月2日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
互信息论文笔记
CreateAMind
23+阅读 · 2018年8月23日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks教程
全球人工智能
10+阅读 · 2017年11月24日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员