像BERT这样的预训练语言模型(Pre-trained Language Models , PLMs)已经彻底改变了自然语言处理(NLP)的前景。受其启发,人们最近在预训练图模型(PGMs)上投入了大量的精力。由于模型参数庞大,PGM能够从大量有标记和无标记的图数据中获取丰富的知识。隐含编码在模型参数中的知识可以使各种下游任务受益,并有助于缓解在图上学习的几个基本问题。在这篇论文中,我们提供了一个全面的PGMs综述。我们首先简要介绍了图表示学习的局限性,从而介绍了图预训练的动机。接下来,我们从历史、模型架构、预训练策略、调优策略和应用等五个不同的角度,对现有的PGM进行了系统的分类。最后,我们提出了几个有前景的研究方向,可以作为今后研究的指导方针。

成为VIP会员查看完整内容
40

相关内容

专知会员服务
82+阅读 · 2021年6月20日
首个视觉-语言预训练综述来了!
夕小瑶的卖萌屋
8+阅读 · 2022年3月29日
图神经网络GNN预训练技术进展概述
专知
2+阅读 · 2021年4月12日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
104+阅读 · 2019年11月27日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
图神经网络综述:模型与应用
PaperWeekly
197+阅读 · 2018年12月26日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
Arxiv
28+阅读 · 2021年10月1日
Arxiv
29+阅读 · 2020年3月16日
A Comprehensive Survey on Transfer Learning
Arxiv
121+阅读 · 2019年11月7日
VIP会员
相关VIP内容
专知会员服务
82+阅读 · 2021年6月20日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员