Efficient computation of node proximity queries such as transition probabilities, Personalized PageRank, and Katz are of fundamental importance in various graph mining and learning tasks. In particular, several recent works leverage fast node proximity computation to improve the scalability of Graph Neural Networks (GNN). However, prior studies on proximity computation and GNN feature propagation are on a case-by-case basis, with each paper focusing on a particular proximity measure. In this paper, we propose Approximate Graph Propagation (AGP), a unified randomized algorithm that computes various proximity queries and GNN feature propagation, including transition probabilities, Personalized PageRank, heat kernel PageRank, Katz, SGC, GDC, and APPNP. Our algorithm provides a theoretical bounded error guarantee and runs in almost optimal time complexity. We conduct an extensive experimental study to demonstrate AGP's effectiveness in two concrete applications: local clustering with heat kernel PageRank and node classification with GNNs. Most notably, we present an empirical study on a billion-edge graph Papers100M, the largest publicly available GNN dataset so far. The results show that AGP can significantly improve various existing GNN models' scalability without sacrificing prediction accuracy.


翻译:在各种图表采矿和学习任务中,高效计算节点近距离询问,如过渡概率、个性化PageRank和Katz等,具有至关重要的意义。特别是,最近一些工程利用快速节点近距离计算,以提高图形神经网络(GNN)的可缩缩缩性。然而,先前关于近距离计算和GNN特征传播的研究是在个案基础上进行的,每份文件都侧重于特定的近距离测量。在本文中,我们提议采用一个统一的随机算法,计算各种近距离查询和GNN特征传播,包括过渡概率、个性化PealRank、热内尔PageRank、Katz、SG、GDC和APPNP。我们的算法提供了理论约束性误差保证,而且几乎是最佳的复杂时间。我们进行了广泛的实验研究,以在两种具体应用中显示AGPA的效果:用热内子PageRank进行本地组合和与GNNN的节点分类。最显著的是,我们介绍了关于10亿个远的GGGPPPP100M的实证研究,最大的现有GNNS的精确性能展示了现有的各种数据。

1
下载
关闭预览

相关内容

PageRank,网页排名,又称网页级别、Google左侧排名或佩奇排名,是一种由[1] 根据网页之间相互的超链接计算的技术,而作为网页排名的要素之一,以Google公司创办人拉里·佩奇(Larry Page)之姓来命名。Google用它来体现网页的相关性和重要性,在搜索引擎优化操作中是经常被用来评估网页优化的成效因素之一。Google的创始人拉里·佩奇和谢尔盖·布林于1998年在斯坦福大学发明了这项技术。
专知会员服务
76+阅读 · 2021年7月31日
专知会员服务
51+阅读 · 2021年6月14日
专知会员服务
37+阅读 · 2020年11月24日
专知会员服务
52+阅读 · 2020年11月3日
最新【图神经网络计算】2020综述论文,23页PDF
专知会员服务
192+阅读 · 2020年10月3日
一份简单《图神经网络》教程,28页ppt
专知会员服务
120+阅读 · 2020年8月2日
Word Embedding List|ACL 2020 词嵌入长文汇总及分类
PaperWeekly
3+阅读 · 2020年5月30日
浅谈图神经网络的局限性
InfoQ
7+阅读 · 2020年4月25日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
103+阅读 · 2019年11月27日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
6+阅读 · 2019年11月14日
Graph Analysis and Graph Pooling in the Spatial Domain
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关VIP内容
相关资讯
Word Embedding List|ACL 2020 词嵌入长文汇总及分类
PaperWeekly
3+阅读 · 2020年5月30日
浅谈图神经网络的局限性
InfoQ
7+阅读 · 2020年4月25日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
103+阅读 · 2019年11月27日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员