题目: 图神经网络的无冗余计算 会议: KDD2020 论文地址: https://dl.acm.org/doi/abs/10.1145/3394486.3403142 推荐理由: 对于图神经网络中重复信息的聚合,这篇文章提出了一种简单有效的层次化聚合的方法(HAG),用于层次化管理中间结果并减少图神经网络在训练和推断过程中重复计算。HAG 能够保证在计算层次化聚合的过程中,可以使用更少的时间用于训练并且得到的结果和传统的图神经网络模型一致。

GNN在单层中基于递归邻域聚合方案,每个节点聚合其邻居的特征,并使用聚合值更新其自身的特征。这样递归地传播多次(多层),最后,GNN中的每个节点都会从其k阶网络邻居中的其他节点收集信息。最后GNN层的激活然后被用于下游预测任务,例如节点分类、图分类或链路预测。然而,如何设计一个能够有效处理大规模图数据集的GNN仍然是一个挑战。特别的是,许多当前的工作是使用整张图的拉普拉斯矩阵,这样即便是对于中等规模的图,也会面临存储空间的问题。GraphSAGE首次提出使用对每个独立节点执行小图邻域采样,然后再聚合这些节点的邻域信息,但是对于单个节点进行邻域采样是一个高复杂度的事情,因此许多手工调整的启发式算法被用来限制采样复杂性并选择邻域图并通过优化图的采样步骤来提高GNN的效率。

成为VIP会员查看完整内容
37

相关内容

【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【KDD2020】 解决基于图神经网络的会话推荐中的信息损失
专知会员服务
31+阅读 · 2020年10月29日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
149+阅读 · 2020年6月28日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关主题
相关VIP内容
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
19+阅读 · 2020年11月6日
【KDD2020】 解决基于图神经网络的会话推荐中的信息损失
专知会员服务
31+阅读 · 2020年10月29日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
149+阅读 · 2020年6月28日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
微信扫码咨询专知VIP会员