在自然语言处理(NLP)领域的最新进展中,大规模预训练语言模型(PLMs)发挥了重要作用,这些模型基于深度 Transformer 神经网络。这些PLMs通过在大量无标签文本上使用自监督学习技术进行模型的整体训练,同时学习上下文化的单词表示和语言建模,引发了一种范式转变,将我们的焦点从为不同任务定制不同模型转向将一个PLM适应所有任务。研究如何将通用PLM适应到特定的感兴趣领域对于PLMs的部署具有重大意义。主流做法是在目标领域的标注数据集上对PLM进行微调,并使用特定任务的头部。然而,对于大多数目标应用,标注数据有限,甚至在许多资源稀缺的场景中十分稀缺。PLM中的大量参数常常使这些小数据集难以利用语言先验的力量。因此,即使在同一任务下,当一个在一个数据集上微调的PLM应用到具有一些领域间隙的另一个数据集时,由于过度拟合之前的训练集,它有时会遇到性能下降。这种现象阻碍了PLMs在实践中的广泛应用,尤其是在面对新领域时,需要增强PLMs在适应过程中的泛化性能的方法,而无需请求更多的标注数据。

早期的领域适应方法,利用类似的源领域来提高目标领域上的模型性能,是基于使用传统神经网络(如LSTMs)的定制模型开发的。这些模型较浅,需要更长的训练时间才能收敛,并且与PLMs相比没有先验知识。研究表明,一些流行的领域适应方法甚至可能损害PLMs在目标领域上的泛化性能。PLMs的独特特性,如前所未有的规模、丰富的语言先验和许多迄今为止未被深入探索的技能,可能成为无法控制的因素,使它们表现出与传统模型不同的学习行为。为此,需要开发PLMs的算法,以提高它们的领域适应性能,从而加速它们在实际场景中的广泛应用。

本论文的目标是探索可以高效利用目标领域标签数据的技术,通过有效地从类似的源领域向目标领域转移知识,更好地将给定的PLM适应到感兴趣的目标领域。为了实现这个目标,我从机器学习流程中的三个角度进行研究,每个角度都假定只有特定的位置可以用可用的计算资源进行更新。也就是说,我们保持所有其他条件不变,只对输入数据、模型表示和输出预测分别进行更新。我们展示了如何在每个场景下用目标领域的有限标注数据获得更好的泛化性能。总的来说,我们提出了一个新的算法,使用领域适应目标生成对抗性扰动,以增强在低资源场景下软提示调优的可转移性,一个新的模型优化算法,当优化任务分类器以适应竞争损失时,考虑对抗性领域判别器的下一步梯度,以及一个新的联邦学习框架,校准条件概率分布,以在不同标签分布下将同一PLM适应到多个领域。我们在以下章节中详细介绍了具体问题、相关工作、详细方法、广泛实验和深入讨论,并阐明了如何在迎合新兴学习范式的同时,依据传统的机器学习方法。

成为VIP会员查看完整内容
48

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【伯克利博士论文】数据与标签高效表示学习,114页pdf
专知会员服务
51+阅读 · 2023年2月20日
【牛津大学博士论文】深度迁移学习贝叶斯推断,157页pdf
【MIT博士论文】控制神经语言生成,147页pdf
专知会员服务
21+阅读 · 2022年9月2日
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
51+阅读 · 2022年8月31日
【港科大博士论文】高效迁移学习的低资源自然语言理解
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
94+阅读 · 2021年11月4日
实战经验分享-少量数据NLP场景下进行深度学习训练的建议
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
23+阅读 · 2020年9月16日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
23+阅读 · 2020年9月16日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
25+阅读 · 2018年1月24日
微信扫码咨询专知VIP会员