Recently developed graph contrastive learning (GCL) approaches compare two different "views" of the same graph in order to learn node/graph representations. The core assumption of these approaches is that by graph augmentation, it is possible to generate several structurally different but semantically similar graph structures, and therefore, the identity labels of the original and augmented graph/nodes should be identical. However, in this paper, we observe that this assumption does not always hold, for example, any perturbation to nodes or edges in a molecular graph will change the graph labels to some degree. Therefore, we believe that augmenting the graph structure should be accompanied by an adaptation of the labels used for the contrastive loss. Based on this idea, we propose ID-MixGCL, which allows for simultaneous modulation of both the input graph and the corresponding identity labels, with a controllable degree of change, leading to the capture of fine-grained representations from unlabeled graphs. Experimental results demonstrate that ID-MixGCL improves performance on graph classification and node classification tasks, as demonstrated by significant improvements on the Cora, IMDB-B, and IMDB-M datasets compared to state-of-the-art techniques, by 3-29% absolute points.


翻译:最近开发的Graph对比学习(GCL)方法将同一图的两个不同“视图”进行比较,以学习节点/图表示。这些方法的核心假设是,通过图形增强,可以生成几个结构上不同但语义相似的图形结构,因此,原始和增强图/节点的身份标签应该是相同的。然而,在本文中,我们观察到这个假设并不总是成立,例如,在分子图中对节点或边进行的任何扰动都会在一定程度上改变图形标签。因此,我们认为增强图形结构应该伴随着对用于对比损失的标签的调整。基于这个想法,我们提出了ID-MixGCL,它允许同时调节输入图形和相应的身份标签,控制变化的程度,从而从未标记的图形中捕捉到细粒度的表示。实验结果表明,与最先进的技术相比,ID-MixGCL在图分类和节点分类任务上提高了性能,在Cora、IMDB-B和IMDB-M数据集上分别提高了3-29%。

0
下载
关闭预览

相关内容

【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
12+阅读 · 2021年8月8日
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
IJCAI 2022 | 鲁棒的Node-Node Level自对齐图对比学习
PaperWeekly
0+阅读 · 2022年6月16日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
AF-GCL:不需要增强的图对比学习
图与推荐
0+阅读 · 2022年5月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
10+阅读 · 2021年2月26日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
VIP会员
相关VIP内容
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
12+阅读 · 2021年8月8日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员