本综述回顾了提示调优(prompt tuning)这一参数高效的语言模型适配方法。该方法通过在模型输入前添加可训练的连续向量,并保持预训练语言模型本体冻结,从而实现模型在下游任务上的快速适应。 我们将现有方法归类为两大类:直接提示学习迁移学习。 * 直接提示学习方法包括:通用优化策略、基于编码器的方法、分解策略,以及专家混合框架(mixture-of-experts frameworks)。 * 迁移学习方法包括:通用迁移策略、基于编码器的方法,以及分解策略。

对于每类方法,本文从方法设计、创新点、核心洞察、优缺点等方面进行了系统分析,并通过可视化图示比较不同提示调优框架。 此外,我们识别出该领域在计算效率训练稳定性方面所面临的挑战,并讨论了未来在提升训练鲁棒性拓展应用范围方向的研究前景。

成为VIP会员查看完整内容
18

相关内容

小型语言模型综述
专知会员服务
53+阅读 · 2024年10月29日
图提示学习最新综述
专知会员服务
21+阅读 · 2024年8月28日
生成式信息检索综述
专知会员服务
35+阅读 · 2024年6月5日
基础模型视频理解综述
专知会员服务
31+阅读 · 2024年5月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
180+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关主题
相关VIP内容
小型语言模型综述
专知会员服务
53+阅读 · 2024年10月29日
图提示学习最新综述
专知会员服务
21+阅读 · 2024年8月28日
生成式信息检索综述
专知会员服务
35+阅读 · 2024年6月5日
基础模型视频理解综述
专知会员服务
31+阅读 · 2024年5月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
相关资讯
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
180+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
微信扫码咨询专知VIP会员