在多轮对话中,人们不总是会使用完整精确的句子表达方式,因而使得对话的上下文理解变得尤为困难。可是,我们需要让计算机充分理解上下文,才能产生一个合理的系统回答。在本文中,我们提出了一种训练计算机系统通过完成阅读理解的任务,提升其对会话上下文出现信息缺失情况下的理解推理能力:即使出现了信息缺失,系统也有能力进行理解及补全。受多任务学习范式的启发,我们提出了一种联合训练的模型框架,将对话与阅读理解两个不同的任务进行捏合与适度的共享,从而使得这种在信息缺失情况下的推理能力可以很好的帮助对话系统完成会话过程。

https://www.zhuanzhi.ai/paper/4796c9faac3b36e1c30a21eed28ebe9e

成为VIP会员查看完整内容
43

相关内容

知识增强的文本生成研究进展
专知会员服务
96+阅读 · 2021年3月6日
【WWW2021】合作记忆网络的个性化任务导向对话系统
专知会员服务
14+阅读 · 2021年2月17日
【AAAI2021】预训练用户表示提升推荐
专知会员服务
42+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
46+阅读 · 2020年12月26日
专知会员服务
20+阅读 · 2020年9月11日
【KDD 2020】基于互信息最大化的多知识图谱语义融合
专知会员服务
39+阅读 · 2020年9月7日
赛尔原创 | ACL 2019 检索增强的对抗式回复生成
哈工大SCIR
12+阅读 · 2019年7月4日
论文浅尝 | 基于图注意力的常识对话生成
开放知识图谱
8+阅读 · 2019年2月5日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
VIP会员
相关VIP内容
知识增强的文本生成研究进展
专知会员服务
96+阅读 · 2021年3月6日
【WWW2021】合作记忆网络的个性化任务导向对话系统
专知会员服务
14+阅读 · 2021年2月17日
【AAAI2021】预训练用户表示提升推荐
专知会员服务
42+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
46+阅读 · 2020年12月26日
专知会员服务
20+阅读 · 2020年9月11日
【KDD 2020】基于互信息最大化的多知识图谱语义融合
专知会员服务
39+阅读 · 2020年9月7日
微信扫码咨询专知VIP会员