Graph neural networks (GNNs) have received tremendous attention due to their superiority in learning node representations. These models rely on message passing and feature transformation functions to encode the structural and feature information from neighbors. However, stacking more convolutional layers significantly decreases the performance of GNNs. Most recent studies attribute this limitation to the over-smoothing issue, where node embeddings converge to indistinguishable vectors. Through a number of experimental observations, we argue that the main factor degrading the performance is the unstable forward normalization and backward gradient resulted from the improper design of the feature transformation, especially for shallow GNNs where the over-smoothing has not happened. Therefore, we propose a novel orthogonal feature transformation, named Ortho-GConv, which could generally augment the existing GNN backbones to stabilize the model training and improve the model's generalization performance. Specifically, we maintain the orthogonality of the feature transformation comprehensively from three perspectives, namely hybrid weight initialization, orthogonal transformation, and orthogonal regularization. By equipping the existing GNNs (e.g. GCN, JKNet, GCNII) with Ortho-GConv, we demonstrate the generality of the orthogonal feature transformation to enable stable training, and show its effectiveness for node and graph classification tasks.


翻译:由于在学习节点表达中具有优势,这些模型依靠信息传递和特征转换功能来对来自邻居的结构和特征信息进行编码;然而,堆叠更多的卷进层会大大降低GNN的性能。最近进行的大多数研究将这一局限性归因于过度移动的问题,因为节点嵌入会聚集到无法区分的矢量中。通过一些实验观察,我们认为,使性能下降的主要因素是因地貌转换设计不当而导致的不稳定的前向正常化和后向梯度,特别是对于没有进行过度移动的浅层GNNN的地貌转换。因此,我们提议进行新的或横向地貌特征转换,名为Ortho-GConv, 通常可以增强现有的GNNN骨干稳定模型培训,提高模型的概括性能。具体地说,我们从三个角度,即混合重量初始化、或分层变换以及正态的调整,通过使现有的GNNNNN(e.g.g.G.G.Net)和GNF.S.S.S.S.Secal Instrual 显示G.G.G.G.和Gnalalalal-C.G.G.K.

2
下载
关闭预览

相关内容

注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
图神经网络三剑客:GCN、GAT与GraphSAGE
PaperWeekly
65+阅读 · 2020年2月27日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
Arxiv
0+阅读 · 2021年11月14日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
15+阅读 · 2020年2月5日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
图神经网络三剑客:GCN、GAT与GraphSAGE
PaperWeekly
65+阅读 · 2020年2月27日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
相关论文
Arxiv
0+阅读 · 2021年11月14日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
15+阅读 · 2020年2月5日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员