Deep graph neural networks (GNNs) have achieved excellent results on various tasks on increasingly large graph datasets with millions of nodes and edges. However, memory complexity has become a major obstacle when training deep GNNs for practical applications due to the immense number of nodes, edges, and intermediate activations. To improve the scalability of GNNs, prior works propose smart graph sampling or partitioning strategies to train GNNs with a smaller set of nodes or sub-graphs. In this work, we study reversible connections, group convolutions, weight tying, and equilibrium models to advance the memory and parameter efficiency of GNNs. We find that reversible connections in combination with deep network architectures enable the training of overparameterized GNNs that significantly outperform existing methods on multiple datasets. Our models RevGNN-Deep (1001 layers with 80 channels each) and RevGNN-Wide (448 layers with 224 channels each) were both trained on a single commodity GPU and achieve an ROC-AUC of $87.74 \pm 0.13$ and $88.24 \pm 0.15$ on the ogbn-proteins dataset. To the best of our knowledge, RevGNN-Deep is the deepest GNN in the literature by one order of magnitude. Please visit our project website https://www.deepgcns.org/arch/gnn1000 for more information.


翻译:深图神经网络(GNNs)在使用数百万节点和边缘的日益庞大的图表数据集方面,在各种任务中取得了优异的成果。然而,由于节点、边缘和中间激活的数量之多,在为实际应用而培训深度GNNs时,记忆复杂性已成为一个主要障碍。为了提高GNNs的可缩放性,先前的工作提议了智能图形抽样或分区战略,用一套较小的节点或子图来培训GNNs(448层,每个224个频道)。在这项工作中,我们研究可逆连接、群变组合、权重搭和平衡模型,以提高GNNNS的记忆和参数效率。我们发现,与深网络结构相结合的可逆连接,使得对大大超出多数据集现有方法的多度分解的GNNNNs(GNN)系统(1001层,每个频道80个频道)的培训能够对GNNNN-Wide(448层,每个频道224个频道)进行。我们用单一商品GPUP(ROC-AC) 8774c m0.13美元和8.8GNNNS-pnxxxx_0.24我们最深的G) 最深的G-NUSxxxxxxx_0.15xxxxxxxxxxx0.15xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx0.0.0.0.0.0.0.0.0.15xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx/0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2020年11月24日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
184+阅读 · 2020年4月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Graph Neural Networks 综述
计算机视觉life
30+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
专知会员服务
38+阅读 · 2020年11月24日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
184+阅读 · 2020年4月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
相关资讯
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
Graph Neural Networks 综述
计算机视觉life
30+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
相关论文
Top
微信扫码咨询专知VIP会员