图神经网络的表达能力有限,不能正确地表示许多图类。虽然表达性更强的图表示学习(GRL)替代品可以区分其中一些类,但它们非常难以实现,可能可扩展性不好,而且在现实任务中也没有显示出比调优的GNN更好的性能。因此,设计简单、可扩展和表达的GRL架构,同时实现真实世界的改进,仍然是一个开放的挑战。在这项工作中,我们展示了图重构——从图的子图重构图——能够减轻GRL体系结构目前面临的理论和实践问题的程度。首先,我们利用图重构来构建两个新的表达图表示类。其次,我们展示了图重构如何提高任何GNN架构的表达能力,同时作为一个(可证明的)强大的对顶点移除的不变性的归纳偏差。通过解决7个原始GNN无法解决的图属性任务,我们展示了重构如何提高GNN的表达能力,同时保持其对顶点排列的不变性。此外,我们演示了它如何提高最先进的GNN的性能跨越九个真实世界的基准数据集。

https://www.zhuanzhi.ai/paper/d317e28c549e3b94855679a5a05b4fa6

成为VIP会员查看完整内容
15

相关内容

【NeurIPS 2021】学会学习图拓扑
专知会员服务
24+阅读 · 2021年10月22日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
40+阅读 · 2021年5月24日
【ICLR2021】常识人工智能,77页ppt
专知会员服务
73+阅读 · 2021年5月11日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
干货|基于图卷积网络的图深度学习
DataCanvas大数据云平台
9+阅读 · 2017年6月8日
Arxiv
0+阅读 · 2021年11月24日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
4+阅读 · 2018年4月17日
VIP会员
相关VIP内容
【NeurIPS 2021】学会学习图拓扑
专知会员服务
24+阅读 · 2021年10月22日
专知会员服务
6+阅读 · 2021年9月20日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
40+阅读 · 2021年5月24日
【ICLR2021】常识人工智能,77页ppt
专知会员服务
73+阅读 · 2021年5月11日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
干货|基于图卷积网络的图深度学习
DataCanvas大数据云平台
9+阅读 · 2017年6月8日
相关论文
Arxiv
0+阅读 · 2021年11月24日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
4+阅读 · 2018年4月17日
微信扫码咨询专知VIP会员