神经文本退化:一致性和学习

用最大似然估计训练的神经序列模型已经成为建模和生成文本的标准方法。然而,最近的研究发现了这些模型的问题。在这次谈话中,我们研究了在实践中出现的最大似然学习的退化性质,激发了新的学习方法。我们使用在生成文本中观察到的三个特性来描述简并性:非终止性、逻辑不连贯性和重复性。为了研究非终止性,我们发展了一个理论,允许我们正式证明传统的文本生成方法可以生成具有高概率的无限长序列。为了减少这三种类型的退化,我们开发了两种学习算法:非似然训练(惩罚特定任务的文本属性)和最大似然引导参数搜索(直接优化序列级损失)。

成为VIP会员查看完整内容
15

相关内容

少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
【EMNLP2020】序列知识蒸馏进展,44页ppt
专知会员服务
38+阅读 · 2020年11月21日
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
115页Slides带你领略深度生成模型全貌(附PPT)
数据派THU
12+阅读 · 2018年7月31日
Arxiv
0+阅读 · 2020年12月2日
Arxiv
0+阅读 · 2020年12月1日
Arxiv
0+阅读 · 2020年12月1日
Arxiv
7+阅读 · 2018年11月6日
VIP会员
微信扫码咨询专知VIP会员