大规模预训练模型已经彻底革新了自然语言处理(NLP)和计算机视觉(CV)领域,展现出显著的跨领域泛化能力。然而,在图学习中,模型通常依赖于单一的图数据集进行训练,这限制了其在不同图与任务之间迁移知识的能力,同时也严重依赖大量标注数据,在资源受限环境下尤为具有挑战性。与 NLP 和 CV 不同,图结构数据因其固有的异质性而面临独特挑战,包括跨应用的领域特定特征空间和结构多样性。为应对这些挑战,本文提出了一种新颖的面向文本属性图的结构感知自监督学习方法(SSTAG)。通过利用文本作为图学习的统一表示媒介,SSTAG 构建了大语言模型(LLMs)的语义推理能力与图神经网络(GNNs)的结构建模能力之间的桥梁。我们的方法引入了一种双重知识蒸馏框架,将 LLMs 和 GNNs 的知识共同蒸馏到结构感知的多层感知机(MLPs)中,从而提升大规模文本属性图的可扩展性。此外,我们提出了一种内存机制,用于存储典型的图表示,并将其与内存库中的锚点对齐,以整合不变知识,从而增强模型的泛化能力。大量实验结果表明,SSTAG 在跨领域迁移学习任务中优于现有最先进模型,展现出卓越的可扩展性,并在保持竞争性性能的同时有效降低推理成本。

成为VIP会员查看完整内容
0

相关内容

【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
22+阅读 · 2023年10月21日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
32+阅读 · 2023年4月25日
专知会员服务
23+阅读 · 2021年9月27日
专知会员服务
39+阅读 · 2021年5月16日
专知会员服务
36+阅读 · 2020年11月29日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Arxiv
0+阅读 · 5月30日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
22+阅读 · 2023年10月21日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
32+阅读 · 2023年4月25日
专知会员服务
23+阅读 · 2021年9月27日
专知会员服务
39+阅读 · 2021年5月16日
专知会员服务
36+阅读 · 2020年11月29日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员