This paper studies constrained text generation, which is to generate sentences under certain pre-conditions. We focus on CommonGen, the task of generating text based on a set of concepts, as a representative task of constrained text generation. Traditional methods mainly rely on supervised training to maximize the likelihood of target sentences.However, global constraints such as common sense and coverage cannot be incorporated into the likelihood objective of the autoregressive decoding process. In this paper, we consider using reinforcement learning to address the limitation, measuring global constraints including fluency, common sense and concept coverage with a comprehensive score, which serves as the reward for reinforcement learning. Besides, we design a guided decoding method at the word, fragment and sentence levels. Experiments demonstrate that our method significantly increases the concept coverage and outperforms existing models in various automatic evaluations.


翻译:本文研究限制文本生成,即在某些先决条件下生成句子。我们注重共同Gen,即根据一套概念生成文本的任务,这是限制性文本生成的一项具有代表性的任务。传统方法主要依赖监督培训,以最大限度地实现目标判决的可能性。然而,常识和覆盖面等全球制约因素不能纳入自动递减解码过程的可能目标。在本文件中,我们考虑利用强化学习来解决限制问题,衡量全球制约因素,包括流畅、常识和概念覆盖面,全面评分,作为强化学习的奖励。此外,我们还在字、碎片和句级设计了一种有指导的解码方法。实验表明,我们的方法大大增加了概念覆盖面,并超越了各种自动评估中的现有模式。

0
下载
关闭预览

相关内容

【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
44+阅读 · 2020年9月11日
专知会员服务
53+阅读 · 2020年9月7日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
已删除
将门创投
5+阅读 · 2019年6月28日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
4+阅读 · 2019年8月7日
Arxiv
5+阅读 · 2019年4月21日
Arxiv
3+阅读 · 2018年12月18日
Paraphrase Generation with Deep Reinforcement Learning
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年6月28日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员