图结构数据,如社交网络、蛋白质相互作用机制和金融网络,在现实世界场景中无处不在。最近,人们普遍认识到,图数据的适当表示对于统计或机器学习模型的学习性能至关重要,因此,在学习低维表示模型方面前人已经做了大量的工作。迄今为止,图表示学习在社交网络分析和推荐系统等领域取得了显著的成功。目前大多数图表示学习方法都是针对单个图的节点级表示进行学习。然而,在实践应用中,各种应用需要提取整个图的表示,例如在药物和材料发现中预测分子特性,以及在生物网络中预测蛋白质功能。因此,近年来,图级表示学习也吸引了大量的关注。这些方法设计了一种消息传递和聚合算法来获得节点嵌入,然后使用池化机制以有监督的方式获得整个图的表示。 然而,在许多实际应用中,标签数据是非常有限和昂贵的。例如,在化学领域,标签的获取通常采用昂贵的密度泛函理论计算。因此,以无监督或自监督的方式学习整个图的表示变得越来越重要。最近,在自然语言处理和计算机视觉领域取得巨大成功的背景下,基于自监督对比学习的图级表示学习受到了广泛关注。具体来说,这些方法的基本思想是,使用对比损失将来自同一实例的正样本对映射到彼此接近的位置,而来自不同实例的负样本对嵌入到彼此远离的位置,从而产生强大的可迁移表示。 在将对比学习应用于图时,需要仔细考虑两个关键问题:一个是如何在图上构造正样本对,另一个是如何有效地选择和训练负样本对。这两个因素在本质上决定了图对比学习的成功。目前的大多数工作都集中在如何构造正样本对上,并设计不同的图增广策略,如子图扩展等。然而,在如何有效的负样本选择和训练策略方面几乎没有做出什么进步,而事实上,如何有效地处理负样本对对比学习的泛化性能至关重要。这一要求非常具有挑战性,因为在对比学习环境中,标签信息是未知的,因此不可能采用现有的使用标签信息的负采样策略。目前,大多数对比方法都是在训练过程中随机选取负样本。然而,不同的负样本在训练中发挥着不同的作用,产生着不同的影响。具体来说,对于一个特定的样本,其负样本的难度是不同的,并且这些负样本在不同的训练周期中发挥着不同的作用。例如,较困难的负样本在训练后期起着重要作用。因此,我们需要根据训练过程中的困难考虑采样负样本的顺序,特别是在没有标签信息的情况下,这一问题变得更具挑战性。 在本文中,我们试图解决上述挑战------通过提出一个用于图形级表示的课程对比学习框架来解决这一问题。特别地,我们首先介绍了四种用于构造正样本对的图扩充,并使用评分函数来度量训练数据集中负样本的难度。效仿人类的学习过程,我们在学习新模型时应从简单样本开始,然后逐步学习困难样本。因此,我们将负样本从简单到困难进行排序。此外,我们还设计了一个步长函数来规划如何将负样本引入训练过程。最后,我们利用一个流行的对比损失函数来优化我们的模型。与目前最先进的自监督图级表示学习方法相比,我们的方法不仅取得了更好的整体性能,而且减少了训练时间。

我们的贡献总结如下:

  • 我们首次尝试研究了负样本对学习图级表示的影响,这在以前的工作中基本上被忽略了,但对于良好的自监督图级表示学习来说非常实用和重要。

  • 我们提出了一种新的基于课程对比学习的图表示学习模型。我们的模型有效地结合了课程学习和对比学习,能够以人类学习的方式自动选择和训练负样本。

  • 我们进行了全面的实验,结果表明,所提出的方法在15个数据集上提高了下游任务的收敛速度和泛化性能。

成为VIP会员查看完整内容
21

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
WSDM 2022 | 基于图神经网络的协同过滤设计空间研究
专知会员服务
36+阅读 · 2022年1月3日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
12+阅读 · 2021年8月8日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
35+阅读 · 2021年5月28日
专知会员服务
92+阅读 · 2021年5月25日
专知会员服务
36+阅读 · 2021年4月18日
论文荐读:理解图表示学习中的负采样
学术头条
28+阅读 · 2020年5月29日
图表示学习极简教程
PaperWeekly
5+阅读 · 2020年5月27日
图表示学习Graph Embedding综述
图与推荐
10+阅读 · 2020年3月23日
基于 GNN 的图表示学习
DataFunTalk
9+阅读 · 2020年1月17日
KDD 2019论文解读:异构信息网络上的对抗生成学习
云栖社区
22+阅读 · 2019年8月21日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
26+阅读 · 2018年12月28日
Arxiv
3+阅读 · 2020年2月5日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
9+阅读 · 2018年10月18日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
VIP会员
相关VIP内容
WSDM 2022 | 基于图神经网络的协同过滤设计空间研究
专知会员服务
36+阅读 · 2022年1月3日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
12+阅读 · 2021年8月8日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
35+阅读 · 2021年5月28日
专知会员服务
92+阅读 · 2021年5月25日
专知会员服务
36+阅读 · 2021年4月18日
相关资讯
论文荐读:理解图表示学习中的负采样
学术头条
28+阅读 · 2020年5月29日
图表示学习极简教程
PaperWeekly
5+阅读 · 2020年5月27日
图表示学习Graph Embedding综述
图与推荐
10+阅读 · 2020年3月23日
基于 GNN 的图表示学习
DataFunTalk
9+阅读 · 2020年1月17日
KDD 2019论文解读:异构信息网络上的对抗生成学习
云栖社区
22+阅读 · 2019年8月21日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
26+阅读 · 2018年12月28日
相关论文
Arxiv
3+阅读 · 2020年2月5日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
9+阅读 · 2018年10月18日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
微信扫码咨询专知VIP会员