我们介绍了一种通过对比图的结构视图来学习节点和图表示的自监督方法。我们表明,与视觉表示学习不同,增加视图数量到两个以上或对比多尺度编码不会提高性能,而最佳性能是通过对比一阶邻居编码和图扩散来实现的。在线性评估协议下,我们在8个节点中的8个和图分类基准上实现了新的最先进的自监督学习结果。例如,在Cora(节点)和reddy - binary(图形)分类基准上,我们实现了86.8%和84.5%的准确率,相对于之前的最先进水平分别提高了5.5%和2.4%。与监督基准相比,我们的方法在8个基准中有4个优于监督基准。源代码发布在:

成为VIP会员查看完整内容
52

相关内容

【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
45+阅读 · 2020年6月18日
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
79+阅读 · 2020年6月11日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
【NeurIPS2019】图变换网络:Graph Transformer Network
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
Arxiv
11+阅读 · 2018年9月28日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
微信扫码咨询专知VIP会员