In conversational machine reading, systems need to interpret natural language rules, answer high-level questions such as "May I qualify for VA health care benefits?", and ask follow-up clarification questions whose answer is necessary to answer the original question. However, existing works assume the rule text is provided for each user question, which neglects the essential retrieval step in real scenarios. In this work, we propose and investigate an open-retrieval setting of conversational machine reading. In the open-retrieval setting, the relevant rule texts are unknown so that a system needs to retrieve question-relevant evidence from a collection of rule texts, and answer users' high-level questions according to multiple retrieved rule texts in a conversational manner. We propose MUDERN, a Multi-passage Discourse-aware Entailment Reasoning Network which extracts conditions in the rule texts through discourse segmentation, conducts multi-passage entailment reasoning to answer user questions directly, or asks clarification follow-up questions to inquiry more information. On our created OR-ShARC dataset, MUDERN achieves the state-of-the-art performance, outperforming existing single-passage conversational machine reading models as well as a new multi-passage conversational machine reading baseline by a large margin. In addition, we conduct in-depth analyses to provide new insights into this new setting and our model.


翻译:在谈话机器阅读中,系统需要解释自然语言规则,回答诸如“我是否有资格获得健康护理福利”等高级问题,并询问后续的澄清问题,而这些问题的答案对于回答最初的问题是必要的。然而,现有的工作假设每个用户问题都提供规则文本,而这种文本忽视了真实情况下的基本检索步骤。在这项工作中,我们提议并调查一个开放的对讲机阅读的检索设置。在公开的检索环境中,有关规则文本是未知的,因此,一个系统需要从规则文本汇编中检索与问题相关的证据,并用对话方式根据多重检索的规则文本回答用户的高层次问题。我们建议MUDERN,一个多路分流分流的多路分流理解理由网络,在规则文本中提取条件,进行多路分流的推理,或要求澄清后续问题,以了解更多信息。关于我们创建的OR-SHAR数据集,MUDERNERN以新版的状态和最新版本的深度分析方式读取用户的状态,在新的单路深层次对话中,通过新的单路深度分析提供我们新的、演制式的大型的新的单路对话。

1
下载
关闭预览

相关内容

近期必读的五篇 EMNLP 2020【反事实推理】相关论文和代码
专知会员服务
25+阅读 · 2020年11月23日
专知会员服务
123+阅读 · 2020年9月8日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
【资源】问答阅读理解资源列表
专知
3+阅读 · 2020年7月25日
微软机器阅读理解在一场多轮对话挑战中媲美人类
微软丹棱街5号
19+阅读 · 2019年5月14日
WWW 2019会议接收文章列表放出,恭喜各位!
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Neural Approaches to Conversational AI
Arxiv
8+阅读 · 2018年12月13日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
VIP会员
Top
微信扫码咨询专知VIP会员