Increasing the depth of GCN, which is expected to permit more expressivity, is shown to incur performance detriment especially on node classification. The main cause of this lies in over-smoothing. The over-smoothing issue drives the output of GCN towards a space that contains limited distinguished information among nodes, leading to poor expressivity. Several works on refining the architecture of deep GCN have been proposed, but it is still unknown in theory whether or not these refinements are able to relieve over-smoothing. In this paper, we first theoretically analyze how general GCNs act with the increase in depth, including generic GCN, GCN with bias, ResGCN, and APPNP. We find that all these models are characterized by a universal process: all nodes converging to a cuboid. Upon this theorem, we propose DropEdge to alleviate over-smoothing by randomly removing a certain number of edges at each training epoch. Theoretically, DropEdge either reduces the convergence speed of over-smoothing or relieves the information loss caused by dimension collapse. Experimental evaluations on simulated dataset have visualized the difference in over-smoothing between different GCNs. Moreover, extensive experiments on several real benchmarks support that DropEdge consistently improves the performance on a variety of both shallow and deep GCNs.


翻译:提高GCN的深度,这有望让GCN更加直观,但从理论上看,这些改进是否能够缓解过度抽动的边缘,仍然不为人知。在本文中,我们首先从理论上分析通用GCN如何随着深度的增加而发挥作用,包括通用GCN、GCN和偏向性、ResGCN和APP。我们发现,所有这些模型的特点是一个普遍过程:所有节点都集中在结结点之间,导致表达性不强。在这个理论上,我们建议通过随机清除每次培训的某一部分边缘来缓解过度抽动GCN结构,但从理论上看,这些改进是否能够缓解过度抽动。从理论上讲,我们首先从理论上分析通用GCN如何随着深度的深度的提高而发挥作用,包括通用GCN、GCN有偏向的GCN、ResGCN和APNP。我们发现所有这些模型的特征都是一个普遍过程:所有节点都集中在结点之间,导致显小的表达性。在这个理论上,我们建议通过随机地消除每次培训中的某些边缘。理论上,降低超近速度速度速度速度速度速度速度或减轻GE在水平上的各种模拟实验上造成不同水平上的差异。

0
下载
关闭预览

相关内容

【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
CVPR2018 | Decoupled Networks
极市平台
4+阅读 · 2019年3月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
10+阅读 · 2020年6月12日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
3+阅读 · 2018年2月11日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
CVPR2018 | Decoupled Networks
极市平台
4+阅读 · 2019年3月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
相关论文
Arxiv
19+阅读 · 2020年7月13日
Arxiv
10+阅读 · 2020年6月12日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
3+阅读 · 2018年2月11日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员