我们提出了GNNAutoScale (GAS),一个扩展任意消息传递GNN到大型图的框架。GAS通过利用之前的训练迭代的历史嵌入来修剪计算图的整个子树,从而在不丢失任何数据的情况下,使输入节点大小的GPU内存消耗保持不变。虽然现有的解决方案由于边缘的子采样或不可训练的传播而削弱了消息传递的表达能力,但我们的方法被证明能够保持原始GNN的表达能力。我们通过提供历史嵌入的近似误差边界来实现这一点,并展示了如何在实践中加强它们。经验表明,我们的框架PyGAS (PYTORCH geometry 的一个易于使用的扩展)的实际实现是既快速又内存效率高的,学习表现性节点表示,其性能与非扩展对应的性能非常相似,并在大规模图上达到了最先进的性能。

https://arxiv.org/abs/2106.05609

成为VIP会员查看完整内容
15

相关内容

专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
27+阅读 · 2021年5月2日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
最新【图神经网络计算】2020综述论文,23页PDF
专知会员服务
192+阅读 · 2020年10月3日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
北大、微软亚洲研究院:高效的大规模图神经网络计算
深度学习世界
4+阅读 · 2018年10月31日
Arxiv
8+阅读 · 2020年10月9日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
VIP会员
相关主题
相关VIP内容
专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
27+阅读 · 2021年5月2日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
最新【图神经网络计算】2020综述论文,23页PDF
专知会员服务
192+阅读 · 2020年10月3日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
微信扫码咨询专知VIP会员