我们知道,目前的图神经网络(GNNs)由于被称为过度平滑的问题,很难变深。多尺度GNN是一种很有前途的方法,以减轻过度平滑问题。然而,很少有人从学习理论的角度解释为什么它在经验上有效。在本研究中,我们推导了包括多尺度GNN的转导学习算法的优化和泛化保证。利用boosting理论,证明了训练误差在弱学习类型条件下的收敛性。通过将其与泛化间隙边界在转导距离复杂度上的结合,我们证明了在此条件下,某一特定类型的多尺度GNN的测试误差边界随深度的减小而相应减小。我们的结果为多尺度结构对抗过平滑问题的有效性提供了理论解释。我们将boosting算法应用于训练多尺度的GNN来完成真实的节点预测任务。我们证实其性能与现有的GNNs相当,实际行为与理论观测一致。代码可在https://github.com/delta2323/GB-GNN下载。

https://www.zhuanzhi.ai/paper/8f08812139e67b767e5b59c2a71e5bdd

成为VIP会员查看完整内容
13

相关内容

【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
专知会员服务
32+阅读 · 2020年10月2日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【基于元学习的推荐系统】5篇相关论文
专知
11+阅读 · 2020年1月20日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
专知会员服务
32+阅读 · 2020年10月2日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
微信扫码咨询专知VIP会员