随着预训练语言模型(pre- training language model, PLMs)成为各种NLP任务的基础设施,研究人员也很乐意使用预训练微调范式,来自新兴研究的证据不断证明,更大的模型往往产生更好的性能。然而,尽管取得了可喜的成果,但对大规模PLMs进行微调的过程带来了高昂的适应成本。事实上,对一个巨大模型的所有参数进行微调,并为不同的任务保留单独的实例,实际上是不可行的。这就需要一个新的研究分支专注于PLM的参数有效适应。为了激发人们对这些方法可能的优势的想象,而不仅仅是参数效率,我们从形态学的角度创造了一个新的术语delta调优,用来指代最初的“参数高效调优”。与标准的微调相比,增量调优仅微调模型参数的一小部分,而保持其余部分不变,这在很大程度上降低了计算和存储成本。最近的研究表明,一系列具有明显调优参数选择的增量调优方法可以达到与全参数微调相当的性能,这为激发大规模PLMs提供了一种新的有前途的方法。在本文中,我们首先正式描述了增量调优问题,然后全面回顾了最近的增量调优方法。我们还提出了一个统一的分类标准,将现有的增量调优方法分为三组:基于添加的方法、基于规范的方法和基于重参数化的方法。虽然最初提出的是一种控制大型模型的有效方法,但我们相信,随着delta调谐的发现,一些令人着迷的证据可能有助于进一步揭示PLMs甚至深度神经网络的机制。为此,我们讨论了增量调整有效性的理论原理,并分别从优化和最优控制的角度提出了解释增量调整的框架。此外,我们还对有代表性的方法进行了整体的实证研究,对100多个NLP任务的结果显示了不同方法的综合性能比较。实验结果还包括对增量调谐的组合性、标度性和可转移性的分析。为了促进增量调优的研究,我们还开发了一个开源工具包OpenDelta2,它使实践者能够高效、灵活地在plm上实现增量调优。最后,我们讨论了一系列增量调优的实际应用。

成为VIP会员查看完整内容
23

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google】高效Transformer综述,Efficient Transformers: A Survey
专知会员服务
65+阅读 · 2022年3月17日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
预训练语言模型fine-tuning近期进展概述
专知会员服务
36+阅读 · 2021年4月9日
Parameter-Efficient Fine-tuning 相关工作梳理
PaperWeekly
1+阅读 · 2022年3月19日
Efficient GlobalPointer:少点参数,多点效果
PaperWeekly
1+阅读 · 2022年2月11日
通用模型、全新框架,WavLM语音预训练模型全解
PaperWeekly
1+阅读 · 2021年12月24日
Prompt tuning新工作,五个参数解决下游任务 fine-tuning
夕小瑶的卖萌屋
1+阅读 · 2021年12月2日
预训练语言模型fine-tuning近期进展概述
专知
0+阅读 · 2021年4月9日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
102+阅读 · 2021年6月8日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员