Despite recent improvements in open-domain dialogue models, state of the art models are trained and evaluated on short conversations with little context. In contrast, the long-term conversation setting has hardly been studied. In this work we collect and release a human-human dataset consisting of multiple chat sessions whereby the speaking partners learn about each other's interests and discuss the things they have learnt from past sessions. We show how existing models trained on existing datasets perform poorly in this long-term conversation setting in both automatic and human evaluations, and we study long-context models that can perform much better. In particular, we find retrieval-augmented methods and methods with an ability to summarize and recall previous conversations outperform the standard encoder-decoder architectures currently considered state of the art.


翻译:尽管开放域对话模式最近有所改进,但最新艺术模型在短短对话中经过培训和评估,且背景很少。相比之下,长期对话环境几乎没有研究过。在这项工作中,我们收集并发布了一个由多个聊天会组成的人与人数据集,让讲台伙伴了解彼此的利益,并讨论他们从以往会议中学到的东西。我们展示了在这种长期对话环境中,在自动和人类评估中,现有关于现有数据集的培训模式如何表现不佳,我们研究了能够表现更好的长文本模型。特别是,我们找到了能够总结和回顾以往对话的精细方法和方法,从而超越了目前视为艺术状态的标准编码-破坏器结构。

0
下载
关闭预览

相关内容

最新《序列预测问题导论》教程,212页ppt
专知会员服务
84+阅读 · 2020年8月22日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
3+阅读 · 2015年11月29日
VIP会员
Top
微信扫码咨询专知VIP会员