在深度学习时代,大多数NLP任务的建模已经趋同于几种主流范式。例如,我们通常采用序列标注范式来解决POS-tagging、NER、Chunking等大量任务,而采用分类范式来解决情感分析等任务。随着预训练语言模型的快速发展,近年来出现了范式转移的趋势,即通过将一个自然语言处理任务转换为另一个自然语言处理任务。范式迁移已经在许多任务中取得了巨大的成功,成为一种很有前景的改进模型性能的方法。此外,其中一些范例显示出了统一大量NLP任务的巨大潜力,使构建一个单一模型来处理不同的任务成为可能。在本文中,我们回顾了近年来的范式转移现象,重点介绍了几种有潜力解决不同NLP任务的范式。

https://www.zhuanzhi.ai/paper/40d5d6afe38831202ecb0ad7f0d8cf42

引言

范式是为一类任务建模的一般框架。例如,序列标记是命名实体识别的主流范式。不同的范式通常需要不同的输入和输出,因此高度依赖于任务的注释。在过去的几年里,大多数NLP任务的建模已经趋同于几个主流范式,如本文所总结的,Class, Matching, SeqLab, MRC, Seq2Seq, Seq2ASeq和(M)LM。

尽管许多任务的范式在很长一段时间内已经趋同并占主导地位,但最近的研究表明,某些范式下的模型也能很好地概括其他范式下的任务。例如,MRC范式和Seq2Seq范式也可以在NER任务上实现最先进的性能(Li et al., 2020;Yan et al., 2021b),它们之前在序列标记(SeqLab)范式中被形式化。这类方法通常首先将数据集的形式转换为新范式所需的形式,然后使用新范式下的模型来解决任务。近年来,将一个自然语言处理任务转换为另一个自然语言处理任务的类似方法取得了巨大的成功,并日益受到社会的关注。在预训练语言模型(PTMs)出现之后(Devlin et al., 2019; Raffel et al., 2020; Brown et al., 2020; Qiu et al., 2020),范式转移已经在越来越多的任务中被观察到。结合这些PTMs的力量,一些范例显示出了统一不同NLP任务的巨大潜力。这些潜在的统一范式之一,(M)LM(也称为基于提示的调优),最近取得了快速的进展,使用单个PTM作为各种理解和生成任务的通用求解器成为可能(Schick and Schutze ¨ , 2021a,b; Gao et al., 2021; Shin et al., 2020; Li and Liang, 2021; Liu et al., 2021b; Lester et al., 2021)。

尽管它们取得了成功,但这些分散在各种NLP任务中的范式转移尚未得到系统的回顾和分析。本文综述了范式转移研究的最新进展和发展趋势。本文组织如下。在第2节中,我们给出了这7个范式的形式化定义,并介绍了它们的代表性任务和实例模型。在第3节中,我们展示了最近发生在不同NLP任务中的范式转变。在第4节中,我们讨论了几个突出的范式的设计和挑战,这些范式具有统一大多数现有NLP任务的巨大潜力。在第5节中,我们简要讨论了最近的趋势和未来的方向。

成为VIP会员查看完整内容
53

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
95+阅读 · 2021年11月4日
专知会员服务
50+阅读 · 2021年9月25日
专知会员服务
60+阅读 · 2021年5月28日
LinkedIn最新《注意力模型》综述论文大全,20页pdf
专知会员服务
136+阅读 · 2020年12月20日
专知会员服务
119+阅读 · 2020年12月9日
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
一文了解自然语言处理神经史
云栖社区
11+阅读 · 2018年12月2日
综述 | 一文读懂自然语言处理NLP(附学习资料)
PaperWeekly
9+阅读 · 2017年11月14日
Arxiv
0+阅读 · 2021年11月19日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
5+阅读 · 2018年2月26日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年11月19日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
5+阅读 · 2018年2月26日
微信扫码咨询专知VIP会员