近期,使用掩码自编码器的自监督学习因其能有效产生图像或文本表示而日益受到欢迎,这些表示可以应用于多种下游任务,无需重新训练。然而,我们观察到当前的掩码自编码器模型在图数据上缺乏良好的泛化能力。为了解决这一问题,我们提出了一个名为GiGaMAE的新型图掩码自编码器框架。与现有的掩码自编码器不同,这些编码器通过显式重构原始图组件(例如,特征或边)来学习节点表示,在本文中,我们提议协同重构有信息性和整合性的潜在嵌入。通过考虑 encompassing 图的拓扑结构和属性信息的嵌入作为重建目标,我们的模型可以捕获更为泛化和全面的知识。此外,我们引入了一个基于互信息的重建损失,该损失可以有效地重建多个目标。这个学习目标使我们能够区分从单一目标中学到的独有知识和多个目标共享的常见知识。我们在三个下游任务上评估了我们的方法,使用了七个数据集作为基准。大量实验显示,GiGaMAE相对于最先进的基线表现出色。我们希望我们的结果将为图结构数据上的基础模型设计提供启示。我们的代码可在以下网址找到: https://github.com/sycny/GiGaMAE。

成为VIP会员查看完整内容
22

相关内容

【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
30+阅读 · 2023年4月29日
【CVPR2023】面向自监督视觉表示学习的混合自编码器
专知会员服务
24+阅读 · 2023年4月3日
【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
25+阅读 · 2021年9月10日
【NeurIPS2022】GENIE:高阶去噪扩散求解器
专知
0+阅读 · 2022年11月13日
【NeurIPS2022】基于最大熵编码的自监督学习
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
147+阅读 · 2023年3月24日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员