GNN的表示能力和泛化能力得到了广泛的研究。但是,它们的优化其实研究的很少。通过研究GNN的梯度动力学,我们迈出分析GNN训练的第一步。具体来说,首先,我们分析线性化(linearized)的GNN,并证明了:尽管它的训练不具有凸性,但在我们通过真实图验证的温和假设下,可以保证以线性速率收敛到全局最小值。其次,我们研究什么会影响GNN的训练速度。我们的结果表明,通过跳过(skip)连接,更深的深度和/或良好的标签分布,可以隐式地加速GNN的训练。实验结果证实,我们针对线性GNN的理论结果与非线性GNN的训练行为一致。我们的结果在优化方面为具有跳过连接的GNN的成功提供了第一个理论支持,并表明具有跳过连接的深层GNN在实践中将很有希望。

https://www.zhuanzhi.ai/paper/609aef10a18ac8eb66f1d1873c8ec445

成为VIP会员查看完整内容
33

相关内容

专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
19+阅读 · 2020年12月9日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
一文读懂图卷积GCN
AINLP
4+阅读 · 2019年12月17日
【学界】虚拟对抗训练:一种新颖的半监督学习正则化方法
GAN生成式对抗网络
10+阅读 · 2019年6月9日
虚拟对抗训练:一种新颖的半监督学习正则化方法
人工智能前沿讲习班
8+阅读 · 2019年6月9日
从动力学角度看优化算法:一个更整体的视角
黑龙江大学自然语言处理实验室
8+阅读 · 2019年1月28日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
如何用张量分解加速深层神经网络?(附代码)
Arxiv
6+阅读 · 2019年9月25日
Arxiv
5+阅读 · 2019年6月5日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关VIP内容
专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
19+阅读 · 2020年12月9日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
相关资讯
一文读懂图卷积GCN
AINLP
4+阅读 · 2019年12月17日
【学界】虚拟对抗训练:一种新颖的半监督学习正则化方法
GAN生成式对抗网络
10+阅读 · 2019年6月9日
虚拟对抗训练:一种新颖的半监督学习正则化方法
人工智能前沿讲习班
8+阅读 · 2019年6月9日
从动力学角度看优化算法:一个更整体的视角
黑龙江大学自然语言处理实验室
8+阅读 · 2019年1月28日
【学界】基于条件深度卷积生成对抗网络的图像识别方法
GAN生成式对抗网络
16+阅读 · 2018年7月26日
如何用张量分解加速深层神经网络?(附代码)
相关论文
Arxiv
6+阅读 · 2019年9月25日
Arxiv
5+阅读 · 2019年6月5日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
5+阅读 · 2018年1月30日
微信扫码咨询专知VIP会员