作者:北邮 GAMMA Lab 硕士生 公绪蒙

论文名称: MA-GCL: Model Augmentation Tricks for Graph Contrastive Learning 发表会议: AAAI2023 论文地址: https://arxiv.org/pdf/2212.07035.pdf

1 简介

对比学习(Contrastive Learning)是一种无监督的表示学习方法,其通过数据增强和负采样获得正负样本,并使用目标函数增大正样本对之间的相似度,减小负样本对间的相似度,以获得具有判别性的表征。对比学习常用的损失函数InfoNCE如下: 对比学习最早在CV中取得了广泛应用,通过对目标样本(图像)进行数据增强(如,旋转,裁剪,加入噪声等)以获得样本的不同views,以该图像的不同views作为正样本,其依赖于一种先验知识,即数据增强不会影响图像的标签,举例来说,对于某个图像来说(比如一个狗狗的图片),无论对其进行旋转,裁剪,加入噪声等各种操作,该图像在人看来还是一只狗,而不会变成汽车,所以数据增强后的图像还可以作为原样本的正样本。然而,在Graph数据中,常见的数据增强方式(如:随机删除/添加边或节点)是否能保证该Graph的标签不变呢,举个简单的例子:化学中某些有机物分子可以由原子和化学键组成的Graph进行表示,而同分异构体之间具有相同的节点,不同的边,类似的结构,可以看做是对方进行删除/添加边得到的增强图,但同分异构体却通常有着不同的功能和性质(标签)。也就是说,在图对比学习(Graph Contrastive Learning)中,数据增强给原样本中带来的噪声很有可能改变图的标签,使得学到的图表征效果变差。在本篇工作中,我们认为,在GCL中传统的Graph Data Augmentation和固定的视图编码器架构不足以产生具有足够差异性的视图,所以我们提出了图模型增强的概念,图模型增强可以生成更加diverse的视图,并提出了三种不同的模型增强策略,分别是非对称,随机和洗牌策略,并基于这三种策略,提出了一种新的图对比学习模型MA-GCL(Model Augmentation Graph Contrastive Learning)。

2 方法介绍

2.1 预备知识

在本篇工作中,我们使用GNN作为view encoder,并且使用一种新的方式来形式化GNN,GNN可以由传播和转换两种算子组成,其中传播算子g是将图滤波器F和节点特征Z进行运算得到;而转换算子h则是将节点特征Z和参数矩阵W进行运算并通过非线性转换得到。以下公式则是利用h算子和g算子形式化了GCN和SGC两种常用的GNN encoders

2.2 非对称策略

该策略的动机可以由以上韦恩图所展示,红色的圈为与下游任务相关的信息,蓝色和绿色的圈则是对比学习生成的两个视图所包含的信息,当我们采用固定的对称的视图编码器时,如a所示,在InfoNCE loss的作用下两个视图的互信息,也就是区域C+D会被最大化,但是和任务相关的信息只有区域D,C也会变大是我们不想要的,而当我们采用非对称的视图架构时,如b所示区域C也就是和任务无关的噪声会被减少。 该策略的核心思想是两个视图编码器之间具有共享的模型参数,但是传播层数(g算子数量)不同时,可以过滤高频噪声。当采用SGC作为视图编码器,并且假设节点特征为独热向量时,InfoNCE损失函数可以重写为以下最优化问题的形式: 随后我们证明了定理1(具体证明可见论文附录),通过定理1,可以得到一个结论就是当采用非对称的视图编码器时,最优化问题的最优解W只由图滤波矩阵和其特征值决定,和GCL引入的数据增强无关。相反,如果采用对称的视图编码器结构,可以证明最优解不但和滤波矩阵有关,还和引入的数据增强有关,就会把数据增强中可能对图性质造成破坏的噪声引入到图表征中。

2.3 随机策略

在该策略中,我们在每个训练轮次中随机决定视图编码器中传播算子的数量,在图数据中,每一个样本通过一个有K个传播层数的GNN可以看做某个节点和他的K姐邻居组成的节点树,通过随机策略在每次训练过程中随机GNN的传播层数可以看做在每个轮次中随机选择不同高度的节点树作为样本,能够变相的丰富训练样本。

2.4 洗牌策略

洗牌策略则是在训练过程中,随机打乱传播算子和转换算子的排列。当采用的视图编码器中不含有非线性激活函数时,进行洗牌后的两个视图编码器不变,我们证明了洗牌是比传统的图数据增强更安全的增强方式。

2.5 MA-GCL

基于三种模型增强策略,我们提出了一种新的图对比学习模型MA-GCL,其伪代码如下:

3 实验

3.1 数据集

我们使用的数据集如表所示,在节点分类任务的六个数据集上进行试验:

3.2 节点分类实验

MA-GCL在六个节点分类数据集上的五个都取得了SOTA的性能。

3.3 消融实验

由消融实验的结果可以看出,我们提出的三种模型增强策略都有效果,其中非对称策略提升效果最为明显。

3.4 动机验证实验


本期责任编辑:杨成本期编辑:刘佳玮


北邮 GAMMA Lab 公众号

主编:石川责任编辑:王啸、杨成编辑:刘佳玮

成为VIP会员查看完整内容
35

相关内容

【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
17+阅读 · 2022年12月11日
【宾夕法尼亚博士论文】大规模图机器学习,179页pdf
专知会员服务
39+阅读 · 2022年11月20日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI 2022】 GeomGCL:用于分子性质预测的几何图对比学习
专知会员服务
23+阅读 · 2022年2月27日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
专知会员服务
37+阅读 · 2021年5月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
专知会员服务
74+阅读 · 2020年9月1日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
AAAI 2022 | 正交图神经网络
PaperWeekly
1+阅读 · 2022年11月17日
推荐系统多任务学习上分技巧
机器学习与推荐算法
0+阅读 · 2022年10月19日
IJCAI'22 | 自对齐图对比学习
图与推荐
1+阅读 · 2022年6月22日
IJCAI 2022 | 鲁棒的Node-Node Level自对齐图对比学习
PaperWeekly
0+阅读 · 2022年6月16日
AF-GCL:不需要增强的图对比学习
图与推荐
0+阅读 · 2022年5月20日
SIGIR2022 | SimGCL: 面向推荐系统的极简图对比学习方法
机器学习与推荐算法
0+阅读 · 2022年5月5日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
19+阅读 · 2021年2月4日
Arxiv
30+阅读 · 2019年3月13日
VIP会员
相关VIP内容
【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
17+阅读 · 2022年12月11日
【宾夕法尼亚博士论文】大规模图机器学习,179页pdf
专知会员服务
39+阅读 · 2022年11月20日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI 2022】 GeomGCL:用于分子性质预测的几何图对比学习
专知会员服务
23+阅读 · 2022年2月27日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
专知会员服务
37+阅读 · 2021年5月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
专知会员服务
74+阅读 · 2020年9月1日
相关资讯
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
AAAI 2022 | 正交图神经网络
PaperWeekly
1+阅读 · 2022年11月17日
推荐系统多任务学习上分技巧
机器学习与推荐算法
0+阅读 · 2022年10月19日
IJCAI'22 | 自对齐图对比学习
图与推荐
1+阅读 · 2022年6月22日
IJCAI 2022 | 鲁棒的Node-Node Level自对齐图对比学习
PaperWeekly
0+阅读 · 2022年6月16日
AF-GCL:不需要增强的图对比学习
图与推荐
0+阅读 · 2022年5月20日
SIGIR2022 | SimGCL: 面向推荐系统的极简图对比学习方法
机器学习与推荐算法
0+阅读 · 2022年5月5日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员