深度图神经网络(GNN)在具有数百万节点和边的日益庞大的图数据集上的各种任务中取得了良好的效果。然而,由于节点、边和中间激活的数量巨大,记忆的复杂性已经成为训练深度GNN用于实际应用的主要障碍。为了提高GNN的可扩展性,之前的工作提出了智能图采样或划分策略,用更小的节点或子图集训练GNN。在这项工作中,我们研究可逆连接,群卷积,权重捆绑和平衡模型,以提高记忆和参数效率的GNN。我们发现,可逆连接结合深度网络体系结构可以训练过参数化GNN,在多个数据集上显著优于现有方法。我们的模型RevGNN-Deep(1001层,每层80个通道)和RevGNN-Wide(448层,每层224个通道)都在单一的普通GPU上进行训练,在ogbn-蛋白质数据集上获得了87.74±0.13和88.14±0.15的ROC-AUC。据我们所知,RevGNN-Deep是文献中最深的一个数量级的GNN。

https://www.zhuanzhi.ai/paper/3673b63b3020fa9a26d4aab38cbb0806

成为VIP会员查看完整内容
35

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
51+阅读 · 2021年6月14日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
28+阅读 · 2021年5月21日
专知会员服务
107+阅读 · 2020年12月21日
最新《图神经网络模型与应用》综述论文
专知会员服务
290+阅读 · 2020年8月2日
注意力图神经网络的小样本学习
专知会员服务
190+阅读 · 2020年7月16日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
103+阅读 · 2019年11月27日
图神经网络综述:模型与应用
PaperWeekly
194+阅读 · 2018年12月26日
如何训练你的ResNet(三):正则化
论智
5+阅读 · 2018年11月13日
Arxiv
0+阅读 · 2021年8月12日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
91+阅读 · 2020年2月28日
Arxiv
19+阅读 · 2019年11月23日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
51+阅读 · 2021年6月14日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
28+阅读 · 2021年5月21日
专知会员服务
107+阅读 · 2020年12月21日
最新《图神经网络模型与应用》综述论文
专知会员服务
290+阅读 · 2020年8月2日
注意力图神经网络的小样本学习
专知会员服务
190+阅读 · 2020年7月16日
相关资讯
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
103+阅读 · 2019年11月27日
图神经网络综述:模型与应用
PaperWeekly
194+阅读 · 2018年12月26日
如何训练你的ResNet(三):正则化
论智
5+阅读 · 2018年11月13日
微信扫码咨询专知VIP会员