Normalization is known to help the optimization of deep neural networks. Curiously, different architectures require specialized normalization methods. In this paper, we study what normalization is effective for Graph Neural Networks (GNNs). First, we adapt and evaluate the existing methods from other domains to GNNs. Faster convergence is achieved with InstanceNorm compared to BatchNorm and LayerNorm. We provide an explanation by showing that InstanceNorm serves as a preconditioner for GNNs, but such preconditioning effect is weaker with BatchNorm due to the heavy batch noise in graph datasets. Second, we show that the shift operation in InstanceNorm results in an expressiveness degradation of GNNs for highly regular graphs. We address this issue by proposing GraphNorm with a learnable shift. Empirically, GNNs with GraphNorm converge faster compared to GNNs using other normalization. GraphNorm also improves the generalization of GNNs, achieving better performance on graph classification benchmarks.


翻译:已知的正常化有助于优化深神经网络。 奇怪的是, 不同的结构需要专门的正常化方法。 在本文中, 我们研究图形神经网络( GNNs) 的正常化效果。 首先, 我们调整和评估从其它领域到 GNNs 的现有方法。 与 BatchNorm 和 Dillum Norm 相比, 更快地实现了CympleNorm 的趋同。 我们通过显示CympleNorm 是 GNNNs 的前提条件, 但是由于图表数据集中的重批量噪音, BatchNorm 的这种先决条件效果更弱。 其次, 我们显示CincentNorm 的转换导致GNNNs在高常规图形中的显性退化。 我们通过提出可学习的转变来解决这个问题。 具有Gapnorm 的GNNNMs 与 GNNs 使用其他的趋同速度更快。 Gignorm 也提高了GNNs 的通用性, 在图形分类基准上取得更好的表现。

0
下载
关闭预览

相关内容

专知会员服务
53+阅读 · 2021年6月14日
专知会员服务
32+阅读 · 2021年6月12日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
72+阅读 · 2020年8月2日
一份简单《图神经网络》教程,28页ppt
专知会员服务
124+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月10日
Arxiv
13+阅读 · 2021年6月14日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
3+阅读 · 2020年4月29日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
VIP会员
Top
微信扫码咨询专知VIP会员