Conversational recommender systems have attracted immense attention recently. The most recent approaches rely on neural models trained on recorded dialogs between humans, implementing an end-to-end learning process. These systems are commonly designed to generate responses given the user's utterances in natural language. One main challenge is that these generated responses both have to be appropriate for the given dialog context and must be grammatically and semantically correct. An alternative to such generation-based approaches is to retrieve responses from pre-recorded dialog data and to adapt them if needed. Such retrieval-based approaches were successfully explored in the context of general conversational systems, but have received limited attention in recent years for CRS. In this work, we re-assess the potential of such approaches and design and evaluate a novel technique for response retrieval and ranking. A user study (N=90) revealed that the responses by our system were on average of higher quality than those of two recent generation-based systems. We furthermore found that the quality ranking of the two generation-based approaches is not aligned with the results from the literature, which points to open methodological questions. Overall, our research underlines that retrieval-based approaches should be considered an alternative or complement to language generation approaches.


翻译:最近的方法依靠在人与人之间记录的对话中经过培训的神经模型,实施端对端学习过程。这些系统通常设计为根据用户自然语言的发声生成响应。一个主要挑战是,这些生成的响应必须适合特定对话环境,而且必须在语法和语义上正确。这种基于一代的方法的替代办法是检索预先记录的对话数据中的答复,并在必要时加以调整。这些基于检索的方法在一般对口系统范围内得到成功探索,但近年来CRS受到的关注有限。在这项工作中,我们重新评估了这些方法的潜力,设计并评价了一种用于回复检索和排序的新技术。用户研究(N=90)显示,我们系统的反应平均质量高于最近两个基于一代的系统。我们进一步发现,两种基于一代的方法的质量等级与替代文献的结果不一致,这些结果指向开放的方法问题。总体而言,我们的研究强调,应当将这种方法与新一代方法加以补充。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Towards Topic-Guided Conversational Recommender System
Arxiv
92+阅读 · 2020年2月28日
Arxiv
3+阅读 · 2018年12月21日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关VIP内容
相关资讯
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Top
微信扫码咨询专知VIP会员