Intelligent assistants like Cortana, Siri, Alexa, and Google Assistant are trained to parse information when the conversation is synchronous and short; however, for email-based conversational agents, the communication is asynchronous, and often contains information irrelevant to the assistant. This makes it harder for the system to accurately detect intents, extract entities relevant to those intents and thereby perform the desired action. We present a neural model for scoping relevant information for the agent from a large query. We show that when used as a preprocessing step, the model improves performance of both intent detection and entity extraction tasks. We demonstrate the model's impact on Scheduler (Cortana is the persona of the agent, while Scheduler is the name of the service. We use them interchangeably in the context of this paper.) - a virtual conversational meeting scheduling assistant that interacts asynchronously with users through email. The model helps the entity extraction and intent detection tasks requisite by Scheduler achieve an average gain of 35% in precision without any drop in recall. Additionally, we demonstrate that the same approach can be used for component level analysis in large documents, such as signature block identification.


翻译:Cortana、Siri、Alexa和Google助理等智能助理受过训练,在谈话同步且短短时分析信息;然而,对于电子邮件交谈代理人而言,通信是非同步的,往往含有与助理无关的信息。这使得系统更难准确检测意图,提取与这些意图相关的实体,从而执行预期行动。我们从一个大查询中为该代理人提供了一个神经模型,用于对相关信息进行范围界定。我们显示,作为预处理步骤,该模型既能改进意图探测,又能改进实体提取任务的业绩。我们展示了该模型对调度员的影响(Cortana是该代理人的人,而调度员则是该服务的名称。我们在本文中可以互换使用它们。) -- 一个虚拟谈话日程安排助理,通过电子邮件与用户进行密切互动。该模型有助于Slapr所要求的实体提取和意向探测任务在不遗漏的情况下平均获得35%的精确度。此外,我们证明,在大型文件(如大文档中)中,可以使用同样的方法进行成份级标识分析。

0
下载
关闭预览

相关内容

【论文推荐】文本摘要简述
专知会员服务
68+阅读 · 2020年7月20日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
人工智能 | AAAI 2019等国际会议信息7条
Call4Papers
5+阅读 · 2018年9月3日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
21+阅读 · 2019年8月21日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
VIP会员
Top
微信扫码咨询专知VIP会员