基于预训练语言模型的文本生成

2022 年 1 月 28 日 专知


本篇综述“A Survey of Pretrained Language Models Based Text Generation”的第一作者李军毅来自中国人民大学和加拿大蒙特利尔大学,指导教师为赵鑫教授(通讯作者)和聂建云教授。作者从数据、模型和优化方法三个角度切入,主要介绍了近年来预训练语言模型技术在文本生成领域的研究进展,以及相应的挑战和解决方案;然后陆续介绍了预训练语言模型在三个代表性的文本生成任务中的应用,包括机器翻译、文本摘要和对话系统,以及广泛采用的评测基准和评价指标;最后讨论提出了若干个未来的研究方向。本文梳理了2018年至今总计200余篇预训练语言模型研究工作,为后续研究者了解熟悉此领域提供巨大帮助。



预训练语言模型技术解决文本生成任务主要考虑三个方面的挑战:1)如何有效地编码输入表示并保留其语义?本文第三章对输入数据的形态进行了划分,包括非结构化文本、结构化数据和多媒体数据,梳理了预训练语言模型针对不同类型输入的表示学习方法;2)如何设计有效的预训练语言模型作为生成函数?本文第四章介绍了四种预训练语言模型模式,包括Masked LM,Causal LM, Prefix LM和Encoder-Decoder LM,并在此基础上作出的拓展,例如增加额外的输入Embedding和Attention机制的创新;3)如何有效地优化预训练语言模型并保证输出文本满足某些语言属性?本文第五章介绍了三种针对文本生成任务的优化策略,包括传统的Fine-Tuning技术,新兴的Prompt-Tuning技术,以及针对特殊属性设计的Property-Tuning技术。

"妙笔"生花:一个易用、高效的文本生成开源库


关于预训练语言模型在文本生成任务上的应用,不得不提我们AI Box团队开发的文本生成工具包——TextBox,中文名“妙笔”。到目前为止,妙笔总共支持四个大类总计21个文本生成模型,其中就包括相关的预训练语言模型,比如GPT-2, BART, T5和ProphetNet等;同时我们也支持机器翻译、文本摘要、对话系统、data-to-text等主流生成任务和相应的测试。研究者可以方便地使用TextBox进行一站式训练,数据处理、数据加载、模型训练和测试等环节均可以由TextBox自动完成。


参考文献

[1] Li, J., Tang, T., Zhao, W.X., Nie, J. Y., & Wen, J. R. (2022). A Survey of Pretrained Language Models Based Text Generation. arXiv preprint arXiv:2201.05273.

[2] Li, J., Tang, T., He, G., Jiang, J., Hu, X.,Xie, P., ... & Wen, J. R. (2021). Textbox: A unified, modularized, and extensible framework for text generation. arXiv preprint arXiv:2101.02046.


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PLMT” 就可以获取基于预训练语言模型的文本生成》专知下载链接


专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
0

相关内容

近年来,预训练模型(例如ELMo、GPT、BERT和XLNet等)的快速发展大幅提升了诸多NLP任务的整体水平,同时也使得很多应用场景进入到实际落地阶段。预训练语言模型本身就是神经网络语言模型,它的特点包括:第一,可以使用大规模无标注纯文本语料进行训练;第二,可以用于各类下游NLP任务,不是针对某项定制的,但以后可用在下游NIP任务上,你不需要为下游任务专门设计一种神经网络,或者提供一种结构,直接在几种给定的固定框架中选择一种进行 fine-tune,就可以从而得到很好的结果。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
95+阅读 · 2021年11月4日
专知会员服务
81+阅读 · 2021年10月15日
专知会员服务
41+阅读 · 2021年6月6日
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
42+阅读 · 2021年4月23日
知识增强的文本生成研究进展
专知会员服务
98+阅读 · 2021年3月6日
专知会员服务
119+阅读 · 2020年12月9日
最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
77+阅读 · 2020年10月13日
搭配对比学习,万能的 prompt 还能做可控文本生成
夕小瑶的卖萌屋
2+阅读 · 2022年3月17日
ICBU可控文本生成技术详解
阿里技术
1+阅读 · 2021年9月26日
推荐几个NLP出论文的好方向!!
夕小瑶的卖萌屋
1+阅读 · 2021年8月24日
基于编辑方法的文本生成(上)
哈工大SCIR
0+阅读 · 2021年6月30日
多样性文本生成任务的研究进展
专知
2+阅读 · 2021年4月25日
NLP预训练模型大集合!
机器之心
21+阅读 · 2018年12月28日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
102+阅读 · 2020年3月4日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关VIP内容
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
95+阅读 · 2021年11月4日
专知会员服务
81+阅读 · 2021年10月15日
专知会员服务
41+阅读 · 2021年6月6日
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
42+阅读 · 2021年4月23日
知识增强的文本生成研究进展
专知会员服务
98+阅读 · 2021年3月6日
专知会员服务
119+阅读 · 2020年12月9日
最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
77+阅读 · 2020年10月13日
相关资讯
搭配对比学习,万能的 prompt 还能做可控文本生成
夕小瑶的卖萌屋
2+阅读 · 2022年3月17日
ICBU可控文本生成技术详解
阿里技术
1+阅读 · 2021年9月26日
推荐几个NLP出论文的好方向!!
夕小瑶的卖萌屋
1+阅读 · 2021年8月24日
基于编辑方法的文本生成(上)
哈工大SCIR
0+阅读 · 2021年6月30日
多样性文本生成任务的研究进展
专知
2+阅读 · 2021年4月25日
NLP预训练模型大集合!
机器之心
21+阅读 · 2018年12月28日
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员