题目: Graph Pooling with Node Proximity for Hierarchical Representation Learning

摘要: 在最近的研究中,图神经网络在图数据表示学习方面受到了广泛的关注。作为对图卷积算子的补充,图池化是提取图数据层次表示的关键。然而,最近的图池化方法仍然不能有效地利用图数据的几何特性。在本文中,我们提出了一种新的图组合策略,利用节点的邻近性来提高图数据的多跳拓扑结构的层次表示学习。节点接近度是通过协调拓扑信息的核表示和节点特征得到的。拓扑信息的隐式结构感知核表示允许高效的图池化,而不需要显式的图的特征组合。利用高斯径向基函数结合仿射变换和核技巧自适应地评估节点信号的相似性。实验结果表明,所提出的图池化策略能够在公开图分类基准数据集上取得最先进的性能。

成为VIP会员查看完整内容
42

相关内容

思想来自于视觉机制,是对信息进行抽象的过程。
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
Arxiv
35+阅读 · 2020年1月2日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
13+阅读 · 2019年11月14日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
9+阅读 · 2019年4月19日
VIP会员
相关VIP内容
相关资讯
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
相关论文
Arxiv
35+阅读 · 2020年1月2日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
13+阅读 · 2019年11月14日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
9+阅读 · 2019年4月19日
微信扫码咨询专知VIP会员