在多轮对话中,人们不总是会使用完整精确的句子表达方式,因而使得对话的上下文理解变得尤为困难。可是,我们需要让计算机充分理解上下文,才能产生一个合理的系统回答。在本文中,我们提出了一种训练计算机系统通过完成阅读理解的任务,提升其对会话上下文出现信息缺失情况下的理解推理能力:即使出现了信息缺失,系统也有能力进行理解及补全。受多任务学习范式的启发,我们提出了一种联合训练的模型框架,将对话与阅读理解两个不同的任务进行捏合与适度的共享,从而使得这种在信息缺失情况下的推理能力可以很好的帮助对话系统完成会话过程。

https://www.zhuanzhi.ai/paper/4796c9faac3b36e1c30a21eed28ebe9e

成为VIP会员查看完整内容
44

相关内容

【AAAI2021】预训练用户表示提升推荐
专知会员服务
44+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
51+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
48+阅读 · 2020年12月26日
论文浅尝 | 基于图注意力的常识对话生成
开放知识图谱
8+阅读 · 2019年2月5日
VIP会员
相关VIP内容
【AAAI2021】预训练用户表示提升推荐
专知会员服务
44+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
51+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
48+阅读 · 2020年12月26日
微信扫码咨询专知VIP会员