Scalability of graph neural networks remains one of the major challenges in graph machine learning. Since the representation of a node is computed by recursively aggregating and transforming representation vectors of its neighboring nodes from previous layers, the receptive fields grow exponentially, which makes standard stochastic optimization techniques ineffective. Various approaches have been proposed to alleviate this issue, e.g., sampling-based methods and techniques based on pre-computation of graph filters. In this paper, we take a different approach and propose to use graph coarsening for scalable training of GNNs, which is generic, extremely simple and has sublinear memory and time costs during training. We present extensive theoretical analysis on the effect of using coarsening operations and provides useful guidance on the choice of coarsening methods. Interestingly, our theoretical analysis shows that coarsening can also be considered as a type of regularization and may improve the generalization. Finally, empirical results on real world datasets show that, simply applying off-the-shelf coarsening methods, we can reduce the number of nodes by up to a factor of ten without causing a noticeable downgrade in classification accuracy.


翻译:图形神经网络的可缩放性仍然是图形机器学习的主要挑战之一。由于节点的表示方式是通过对前层相邻节点的代表矢量进行递归和转换来计算,因此,可接收字段成倍增长,使得标准的随机优化技术无效。为缓解这一问题,提出了各种办法,例如,基于图形过滤器预数的基于取样的方法和技术。在本文中,我们采取不同的做法,并提议使用图表粗缩法对GNS进行可缩放的培训,这是通用的、极其简单的,在培训期间有亚线内存和时间成本。我们就使用粗略操作的效果进行了广泛的理论分析,并为粗略方法的选择提供了有益的指导。有趣的是,我们的理论分析表明,粗略也可以被视为一种正规化类型,并可能改进一般化。最后,关于真实世界数据集的经验结果表明,只要采用离沙粒的粗略方法,我们就可以将节点的数量降低到10个系数,而不会造成明显的下行精确的分类。

1
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年11月3日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
图表示学习Graph Embedding综述
图与推荐
10+阅读 · 2020年3月23日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关资讯
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
图表示学习Graph Embedding综述
图与推荐
10+阅读 · 2020年3月23日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员