随着图核和图表示学习的发展,人们提出了许多更好的方法来处理图结构学习中的可伸缩性和过平滑问题。然而,这些策略大多是基于实践经验而不是理论分析而设计的。在本文中,我们使用一个特定的虚拟节点连接到所有现有的顶点,而不影响原始顶点和边的属性。我们进一步证明了这种虚拟节点可以帮助建立有效的单态边顶点变换和表态逆来恢复原始图。同时表明添加虚拟节点可以保持局部和全局结构,从而获得更好的图表示学习。我们利用虚拟节点扩展图核和图神经网络,并对图分类和子图同构匹配任务进行实验。实验结果表明,以虚拟节点作为输入的图显著提高了图结构学习,使用它们的边到顶点图也可以获得类似的结果。我们还讨论了在神经网络中从假点获得的表达能力。

成为VIP会员查看完整内容
19

相关内容

【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
51+阅读 · 2021年6月14日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
28+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2021年5月19日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
专知会员服务
45+阅读 · 2020年10月22日
KDD'21 | 图神经网络如何建模长尾节点?
图与推荐
6+阅读 · 2021年10月18日
【NeurIPS2019】图变换网络:Graph Transformer Network
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年8月8日
Arxiv
1+阅读 · 2022年8月7日
Arxiv
19+阅读 · 2021年1月14日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
专知会员服务
19+阅读 · 2021年9月12日
专知会员服务
51+阅读 · 2021年6月14日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
28+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2021年5月19日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
专知会员服务
45+阅读 · 2020年10月22日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年8月8日
Arxiv
1+阅读 · 2022年8月7日
Arxiv
19+阅读 · 2021年1月14日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
15+阅读 · 2020年2月5日
微信扫码咨询专知VIP会员