Masked graph autoencoder (MGAE) has emerged as a promising self-supervised graph pre-training (SGP) paradigm due to its simplicity and effectiveness. However, existing efforts perform the mask-then-reconstruct operation in the raw data space as is done in computer vision (CV) and natural language processing (NLP) areas, while neglecting the important non-Euclidean property of graph data. As a result, the highly unstable local connection structures largely increase the uncertainty in inferring masked data and decrease the reliability of the exploited self-supervision signals, leading to inferior representations for downstream evaluations. To address this issue, we propose a novel SGP method termed Robust mAsked gRaph autoEncoder (RARE) to improve the certainty in inferring masked data and the reliability of the self-supervision mechanism by further masking and reconstructing node samples in the high-order latent feature space. Through both theoretical and empirical analyses, we have discovered that performing a joint mask-then-reconstruct strategy in both latent feature and raw data spaces could yield improved stability and performance. To this end, we elaborately design a masked latent feature completion scheme, which predicts latent features of masked nodes under the guidance of high-order sample correlations that are hard to be observed from the raw data perspective. Specifically, we first adopt a latent feature predictor to predict the masked latent features from the visible ones. Next, we encode the raw data of masked samples with a momentum graph encoder and subsequently employ the resulting representations to improve predicted results through latent feature matching. Extensive experiments on seventeen datasets have demonstrated the effectiveness and robustness of RARE against state-of-the-art (SOTA) competitors across three downstream tasks.


翻译:掩蔽图自编码器(MGAE)由于其简单性和有效性,已成为一种有前途的自监督图预训练(SGP)范例。然而,现有的使用的蒙板法则在原始数据空间中进行“掩蔽-重构”操作,就像在计算机视觉(CV)和自然语言处理(NLP)领域中一样,而忽略了图形数据的重要的非欧几里得属性。这导致高度不稳定的本地连接结构大大增加了推断掩蔽数据的不确定性,并降低了开发的自监督信号的可靠性,从而导致下游评估的表现不佳。为了解决这个问题,我们提出了一种新颖的SGP方法,称为健壮的掩蔽图自编码器(RARE),通过在高阶潜在特征空间中进一步掩蔽和重构节点样本,提高推断掩蔽数据的确定性和自监督机制的可靠性。通过理论和实证分析,我们发现在潜在特征和原始数据空间中执行联合掩蔽-重构策略可以产生更稳定和表现更好的结果。为此,我们精心设计了一个掩蔽潜在特征补全方案,该方案利用难以从原始数据角度观察到的高阶样本相关性来预测掩蔽节点的潜在特征。具体而言,我们首先采用潜在特征预测器从可视特征中预测掩蔽的潜在特征。接下来,我们使用动量图编码器对掩蔽样本的原始数据进行编码,并随后利用得到的表示通过潜在特征匹配来提高预测结果。对17个数据集的广泛实验表明,RARE在三个下游任务中对抗现有方法优越和稳健。

0
下载
关闭预览

相关内容

KDD 2022 | GraphMAE:自监督掩码图自编码器
专知会员服务
19+阅读 · 2022年7月14日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
专知会员服务
88+阅读 · 2021年6月29日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
一文带你浏览Graph Transformers
图与推荐
2+阅读 · 2022年7月14日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知
7+阅读 · 2022年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
31+阅读 · 2018年11月13日
VIP会员
相关VIP内容
KDD 2022 | GraphMAE:自监督掩码图自编码器
专知会员服务
19+阅读 · 2022年7月14日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
专知会员服务
88+阅读 · 2021年6月29日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员