作者 | 黄 锋

审核 | 付海涛

 今天给大家介绍清华大学计算机科学与技术系唐杰教授课题组发表于KDD 2022上的论文“GraphMAE: Self-Supervised Masked Graph Autoencoders”。这篇论文将掩码自编码器MAE引入到graph领域中,在涉及三个图学习任务的21个数据集上执行了大量的实验,实验结果表明在图自编码器上一点简单的改进能够产生超越最近的对比式和生成式自监督的SOTA性能。

引言

  生成式自监督模型在NLP和CV领域得到广泛应用,而在graph领域对比学习占据主导地位,不论是节点分类还是图分类任务,生成式自监督的性能都被对比学习甩“几条街”。虽然如此,对比学习却有着致命缺陷,它要么过度依赖于数据增广,要么需要使用负采样、动量更新或指数滑动平均等策略来避免训练时陷入平凡解。而生成式自监督,特别是图自编码器通常目标是重建图自身的节点特征或结构信息,则会完全规避对比学习的局限。本文发现利用图自编码器,稍加改进,仅仅重建节点特征便能够获得优越的性能。GraphMAE的改进如下图所示:  

概括地讲,改进主要是四点:1,掩码特征重建,不重建边;2,不同于大多数图自编码器使用的均方误差,GraphMAE使用缩放余弦误差作为损失函数;3,将编码器输出的嵌入重新掩码后再输入到解码器中;4,比起大多数图自编码器的解码器用多层感知机,GraphMAE的解码器使用图神经网络。  GraphMAE在无监督节点分类、无监督图分类以及在分子性质预测上的迁移学习三个任务共21个数据集上取得了与对比学习差不多,甚至是更好的效果。

方法

掩码特征

  给定一个属性图,输入到编码器前对进行类似BERT中的掩码操作,具体来说,GraphMAE是随机选取一个节点子集,将这些节点的特征替换成一个可学习的向量:

对编码重掩码

  设经过编码器得到的编码,继续对先前选取的那部分节点重新掩码,即替换为: 使用图神经网络作为解码器,希望其能从未掩码的部分编码恢复成节点特征。

缩放余弦误差

 不同于大多数图自编码器模型使用的均方误差,GraphMAE使用缩放余弦误差,假设由编码器恢复的节点特征为,缩放余弦误差定义为:

实验结果

 三种任务:1)无监督节点分类;2)无监督图分类;3)分子性质预测的迁移学习  下表是节点分类任务上的结果。首先是无监督的学习,接着固定编码器参数得到节点的嵌入,用节点嵌入训练一个线性分类器,列出20次随机初始化的平均结果。编码器和解码器都用的是标准的图注意力网络。更多细节参看原文。

 下表是图分类任务上的结果。首先无监督训练,得到节点嵌入后经过一个无参数的池化操作得到图级表达,接着训练LIBSVM作为分类器,列出5次十折交叉验证的平均结果。编码器和解码器都是用的图同构网络。更多细节参看原文。

 下表是分子性质预测的结果。首先在大数据集上无监督训练,接着在小数据上微调。更多细节参看原文。

更多实验结果请参看原文

参考文献

文章地址

https://arxiv.org/abs/2205.10803

代码地址

https://github.com/THUDM/GraphMAE

成为VIP会员查看完整内容
19

相关内容

医学领域的人工智能是使用机器学习模型搜索医疗数据,发现洞察,从而帮助改善健康状况和患者体验。 得益于近年来计算机科学和信息技术的发展,人工智能 (AI) 正迅速成为现代医学中不可或缺的一部分。 由人工智能支持的人工智能算法和其他应用程序正在为临床和研究领域的医学专业人员提供支持。
ATMOL:利用对比学习预训练模型预测分子性质
专知会员服务
11+阅读 · 2022年8月14日
【ICML2022】几何多模态对比表示学习
专知会员服务
44+阅读 · 2022年7月17日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
107+阅读 · 2020年12月21日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
专知会员服务
22+阅读 · 2020年9月25日
专知会员服务
44+阅读 · 2020年9月3日
一文带你浏览Graph Transformers
极市平台
1+阅读 · 2022年7月12日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知
7+阅读 · 2022年6月12日
AAAI'21 | 对比自监督的图分类
图与推荐
8+阅读 · 2021年10月28日
【干货】一文读懂什么是变分自编码器
专知
12+阅读 · 2018年2月11日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年9月5日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
14+阅读 · 2019年11月26日
VIP会员
相关VIP内容
ATMOL:利用对比学习预训练模型预测分子性质
专知会员服务
11+阅读 · 2022年8月14日
【ICML2022】几何多模态对比表示学习
专知会员服务
44+阅读 · 2022年7月17日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
107+阅读 · 2020年12月21日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
专知会员服务
22+阅读 · 2020年9月25日
专知会员服务
44+阅读 · 2020年9月3日
相关资讯
一文带你浏览Graph Transformers
极市平台
1+阅读 · 2022年7月12日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知
7+阅读 · 2022年6月12日
AAAI'21 | 对比自监督的图分类
图与推荐
8+阅读 · 2021年10月28日
【干货】一文读懂什么是变分自编码器
专知
12+阅读 · 2018年2月11日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员