图自监督学习现已成为预训练图基础模型的首选方法,包括图神经网络、图变换器以及更多最近基于大型语言模型(LLM)的图模型。图的结构和属性中嵌入了多种知识模式,这些模式可用于预训练,但我们缺乏一个系统的综述,以图知识的角度来概览自监督预训练任务。在本文中,我们从知识基础的视角全面综述并分析了图基础模型的预训练任务,包括微观(节点、链接等)和宏观知识(簇、全局结构等)。文中涵盖了总共9个知识类别和25个预训练任务,以及各种下游任务适应策略。此外,还提供了一个包含详细元数据的相关论文的广泛列表,地址为 https://github.com/Newiz430/Pretex。

图在各种真实世界的应用中普遍存在,展示出多样化的知识模式[Zhang et al., 2022b]。随着时间的推移,挖掘图的技术已经从网络嵌入发展到图神经网络(GNNs)、图变换器以及更多最近的基于大型语言模型(LLM)的图模型,这些合称为图基础模型[Liu et al., 2023a]。图上的自监督学习(SSL)已经成为一种强大的方法,用于发现大量未标注数据中的潜在模式[Kipf and Welling, 2016; Velicković et al., 2019],如图1所示。为了实现更好的任务泛化性——图基础模型向各种下游任务泛化的关键能力,设计了各种类型的无监督预训练任务,也称为预文本,用于提取隐藏的监督信号以预训练图模型。之后,预训练模型适应于各种应用场景,如节点分类、链接预测和推荐[Wang et al., 2023c]。本文提出了一个全面的综述,关于图基础模型的自监督预训练策略。我们的贡献有两方面。(i) 全面性:据我们所知,这是第一个涵盖所有类型图基础模型的自监督预训练综述,包括GNNs、图变换器和基于LLM的图模型,使得可以进行统一分析以获得更深入的见解。现有的综述在这一领域仅限于一种类型的图模型,如GNNs[Xia et al., 2022c; Xie et al., 2022b; Liu et al., 2022b]或基于图的LLMs[Liu et al., 2023a; Jin et al., 2023],导致了一个不完整且分散的视角,忽略了GNNs和LLMs预训练之间的关系。(ii) 基于知识的视角:现有综述如[Xie et al., 2022b; Liu et al., 2022b; Liu et al., 2023a]广泛地将图SSL方法分类为“生成性(预测性)-对比性”。这种宽泛的分类不足以捕捉图的独特特性,图的结构和属性中嵌入了多样化的知识模式。例如,预测链接的任务需要了解节点之间的局部关系,而预测簇的任务需要了解整个图上节点的分布情况。为了更好地分析不同类型的图自监督预训练策略,我们提出了一个基于知识的分类法,将预训练任务根据所利用的知识类型进行分类,如图2所示:微观知识(第3节)关注于节点级属性和节点之间的局部关系,如链接和上下文子图;宏观知识(第4节)关注于对大部分或整个图产生影响的大规模模式,如长距离相似性和簇。这样的基于知识的分类法提供了一个统一的视角,不仅分析现有图模型的预训练策略,还有最新的基于LLM的图模型(第5节),并探索图基础模型自监督预训练的未来方向(第6节)。它为结合不同方法以创建更具泛化性和强大的图学习者提供了灵感。

成为VIP会员查看完整内容
39

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【PODS2023】从查询语言的视角看图学习,111页ppt
专知会员服务
25+阅读 · 2023年7月22日
【ICML2023】面向决策Transformer的未来条件无监督预训练
专知会员服务
43+阅读 · 2023年5月30日
【WWW2023教程】持续图学习教程,106页pdf
专知会员服务
55+阅读 · 2023年5月4日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
【ICML2022教程】智能交互式学习,80页ppt
专知会员服务
45+阅读 · 2022年7月21日
专知会员服务
16+阅读 · 2021年8月6日
【干货书】优化算法,232页pdf
专知
25+阅读 · 2022年9月8日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
论文浅尝 | 区分概念和实例的知识图谱嵌入方法
开放知识图谱
17+阅读 · 2019年1月19日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
24+阅读 · 2018年2月27日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
155+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
396+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【PODS2023】从查询语言的视角看图学习,111页ppt
专知会员服务
25+阅读 · 2023年7月22日
【ICML2023】面向决策Transformer的未来条件无监督预训练
专知会员服务
43+阅读 · 2023年5月30日
【WWW2023教程】持续图学习教程,106页pdf
专知会员服务
55+阅读 · 2023年5月4日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
【ICML2022教程】智能交互式学习,80页ppt
专知会员服务
45+阅读 · 2022年7月21日
专知会员服务
16+阅读 · 2021年8月6日
相关资讯
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员