The wave of pre-training language models has been continuously improving the quality of the machine-generated conversations, however, some of the generated responses still suffer from excessive repetition, sometimes repeating words from utterance, sometimes repeating words within self-generated responses, or both. Inappropriate repetition of words can significantly degrade the quality of the generated texts. Penalized sampling is one popular solution, reducing the sampling probability of existing words during inference, however, it is highly vulnerable to the inappropriate setting of the static weight. Setting it too high can yield strange and unrealistic sentences while setting it too low makes the task of suppressing repetition trivial. To remedy the shortcomings of the above methods, we design a context-aware classifier to explicitly decide when to allow repetition and when to employ penalized sampling. Such a classifier can be easily integrated with existing decoding methods, reducing repetitions where appropriate while preserving the diversity of the text. Experimental results demonstrate that our method can generate higher quality and more authentic dialogues.


翻译:培训前语言模式的浪潮一直在不断提高机器生成的谈话的质量,然而,一些生成的响应仍然受到过度重复的影响,有时重复自发反应中的言词,有时重复自发反应中的言词,或两者兼而有之;不适当地重复言词会大大降低所生成的文本的质量; 刑事抽样是一种流行的解决办法,在推论期间降低了现有单词的抽样概率,但极易受到静态重量不适当的设置的影响; 设定太高可能会产生奇怪和不现实的句子,而设定太低又会使抑制重复的任务变得微不足道; 为了纠正上述方法的缺点,我们设计了一种有背景意识的分类器,以明确决定何时允许重复和何时使用受处罚的抽样; 这种分类器很容易与现有的解码方法结合,酌情减少重复,同时保留文本的多样性; 实验结果表明,我们的方法能够产生更高的质量和更真实的对话。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
已删除
将门创投
6+阅读 · 2019年6月10日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
4+阅读 · 2019年9月26日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
已删除
将门创投
6+阅读 · 2019年6月10日
Top
微信扫码咨询专知VIP会员