论文题目: Unsupervised Pre-training for Natural Language Generation

论文摘要: 最近,由于无监督预训练在促进自然语言理解(NLU)方面取得了令人惊讶的成功以及有效利用大规模未标记语料库的潜力,因此在计算语言学领域正变得越来越受欢迎。但是,无论NLU是否成功,当涉及自然语言生成(NLG)时,无监督预训练的功能只能被部分挖掘。 NLG特质的主要障碍是:文本通常是基于特定的上下文生成的,可能会因目标应用程序而异。结果,像在NLU场景中一样,设计用于预训练的通用体系结构是很难的。此外,在目标任务上学习时保留从预训练中学到的知识也是不容置疑的。这篇综述总结了近期在无监督的预训练下增强NLG系统的工作,特别着重于催化将预训练的模型集成到下游任务中的方法。根据它们处理上述障碍的方式,它们分为基于体系结构的方法和基于策略的方法。还提供了讨论,以提供这两种工作方式之间的进一步相互了解,一些有益的经验现象以及未来工作可能涉及的一些方向。

成为VIP会员查看完整内容
44

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
文本+视觉,多篇 Visual/Video BERT 论文介绍
AI科技评论
21+阅读 · 2019年8月30日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
自然语言生成的演变史
人工智能学家
5+阅读 · 2019年3月24日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
综述 | 事件抽取及推理 (下)
开放知识图谱
38+阅读 · 2019年1月14日
赛尔译文 | 对话系统综述:新进展新前沿
哈工大SCIR
9+阅读 · 2017年11月17日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
21+阅读 · 2018年8月30日
Paraphrase Generation with Deep Reinforcement Learning
VIP会员
相关VIP内容
相关资讯
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
文本+视觉,多篇 Visual/Video BERT 论文介绍
AI科技评论
21+阅读 · 2019年8月30日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
自然语言生成的演变史
人工智能学家
5+阅读 · 2019年3月24日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
综述 | 事件抽取及推理 (下)
开放知识图谱
38+阅读 · 2019年1月14日
赛尔译文 | 对话系统综述:新进展新前沿
哈工大SCIR
9+阅读 · 2017年11月17日
微信扫码咨询专知VIP会员