This paper presents a novel open-domain dialogue generation framework emphasizing the differentiation of speakers in multi-turn conversations. Differing from prior work that solely relies on the content of conversation history to generate a response, we argue that capturing relative social relations among utterances (i.e., generated by either the same speaker or different persons) benefits the machine capturing fine-grained context information from a conversation history to improve context coherence in the generated response. Given that, we propose a speaker-aware framework, named Parallel Hierarchical Attentive Encoder-Decoder (PHAED), that aims to model each utterance with the awareness of its speaker and contextual associations with the same speaker's previous messages. Specifically, in a conversation involving two speakers, we regard the utterances from one speaker as responses and those from the other as queries. After understanding queries via our encoder with inner-query and inter-query encodings, our decoder reuses the hidden states of previously generated responses to generate a new response. Our empirical results show that PHAED outperforms the state-of-the-art in both automatic and human evaluations. Furthermore, our ablation study shows that dialogue models with speaker tokens can generally decrease the possibility of generating non-coherent responses regarding the conversation context.


翻译:本文介绍了一个新的开放域对话生成框架,强调多方向对话中发言者的差别。与以前的工作不同,以前的工作完全依赖对话历史的内容来生成回应,我们争辩说,捕捉言论(即由同一发言者或不同的人生成的言论)之间的相对社会关系有利于机器从对话历史中捕捉精细化的背景资料,以提高所生成的响应在背景上的一致性。鉴于此,我们提议了一个演讲觉悟框架,名为平行的分级惯犯-Decoder(PHAED),目的是以同一发言者先前的电文作为每次演讲的样板,以其演讲者和相关协会对同一发言者之前的电文的认识为榜样。具体地说,在有两位发言者参与的谈话中,我们把一名发言者的言词视为回应,而其他人的言词则视为询问。在通过我们的内脏和内脏编码解调后,我们的解调器重新利用先前生成的隐蔽的响应状态来生成新的响应。我们的实证结果表明,PHAED超越了在自动和人文对话中都显示我们无法进行这种姿态上的对话。

0
下载
关闭预览

相关内容

知识增强的文本生成研究进展
专知会员服务
97+阅读 · 2021年3月6日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
4+阅读 · 2018年5月10日
VIP会员
Top
微信扫码咨询专知VIP会员