本文最近研究了预训练和微调图神经网络(GNN)的范式,并将其广泛应用于各种图挖掘任务中。其成功通常归因于预训练和下游数据集之间的结构一致性,但在许多实际场景中并不成立。现有工作表明,预训练和下游图之间的结构差异显著限制了使用传统微调策略的可转移性。这种差异导致模型在预训练图上过拟合,并且在捕获下游图的结构属性时遇到困难。

在本文中,我们确定了结构差异的根本原因为预训练和下游图之间生成模式的差异。进一步地,我们提出了G-TUNING方法来保留下游图的生成模式。给定一个下游图G,核心思想是调整预训练的GNN,使其能够重建G的生成模式,即图论W。然而,精确重建图论是众所周知的计算成本高昂。为了克服这个挑战,我们提供了一个理论分析,建立了任何给定图论存在一组替代图论基的概念,称为图论基。通过利用这些图论基的线性组合,我们可以有效地近似W。这一理论发现构成了我们提出模型的基础,因为它使得有效地学习图论基及其相关系数成为可能。与现有算法相比,G-TUNING在域内和域外迁移学习实验中分别平均提高了0.5%和2.6%。

成为VIP会员查看完整内容
22

相关内容

【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
33+阅读 · 2023年10月19日
【NeurIPS2023】利用扩散模型进行异常值想象
专知会员服务
23+阅读 · 2023年10月1日
【ICML2023】通过离散扩散建模实现高效和度引导的图生成
专知会员服务
19+阅读 · 2021年9月14日
专知会员服务
25+阅读 · 2021年9月10日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
20+阅读 · 2021年4月15日
【AAAI2021】基于图神经网络的文本语义匹配算法
专知会员服务
49+阅读 · 2021年1月30日
专知会员服务
41+阅读 · 2020年2月20日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
Arxiv
153+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
395+阅读 · 2023年3月31日
Arxiv
65+阅读 · 2023年3月26日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
33+阅读 · 2023年10月19日
【NeurIPS2023】利用扩散模型进行异常值想象
专知会员服务
23+阅读 · 2023年10月1日
【ICML2023】通过离散扩散建模实现高效和度引导的图生成
专知会员服务
19+阅读 · 2021年9月14日
专知会员服务
25+阅读 · 2021年9月10日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
20+阅读 · 2021年4月15日
【AAAI2021】基于图神经网络的文本语义匹配算法
专知会员服务
49+阅读 · 2021年1月30日
专知会员服务
41+阅读 · 2020年2月20日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员