【CIKM2021】基于等效共享记忆研究的神经会话生成模型

2021 年 11 月 19 日 专知


  题目:A Neural Conversation Generation Model via Equivalent Shared Memory Investigation


  简介:对话生成作为自然语言生成 (NLG) 中的一项具有挑战性的任务,在过去几年中越来越受到关注。最近的一些工作采用了序列到序列结构以及外部知识,成功地提高了生成对话的质量。然而,构建大规模的外部知识不仅耗费大量人力物力,并且模型的领域适用性受到限制。在本篇文章中,我们将相似对话作为一种知识来提高对话生成的性能。以客户服务和法庭辩论领域为例,从相似的对话实例中提取必要的实体,短语,句子及其相关逻辑关系。这些信息可以为改善对话生成提供有用的信号。在本文中,我们提出了一种新的阅读和记忆框架,称为深度阅读记忆网络(DRMN),它能够记住相似对话的有用信息,以改善话语生成。我们将我们的模型应用于司法领域和电子商务领域的两个大规模对话数据集。实验证明,所提出的模型取得了最好的效果。


https://www.zhuanzhi.ai/paper/0399571c887d82ff2eeca6a1452dad47



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ESMI” 就可以获取【CIKM2021】基于等效共享记忆研究的神经会话生成模型》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【WWW2022】TaxoEnrich:通过结构语义表示的自监督分类法补全
【WWW2022】交互式超图神经网络用于个性化产品搜索
专知会员服务
11+阅读 · 2022年2月13日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
【CIKM2021】用领域知识增强预训练语言模型的问题回答
专知会员服务
16+阅读 · 2021年11月18日
CIKM2021 | 用于链接预测的主题感知异质图神经网络
专知会员服务
24+阅读 · 2021年11月3日
专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
16+阅读 · 2021年9月18日
专知会员服务
33+阅读 · 2021年9月14日
专知会员服务
16+阅读 · 2021年8月25日
【WWW2021】实体自适应语义依赖图立场检测
【WWW2021】双曲图卷积网络的协同过滤
专知
4+阅读 · 2021年3月26日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Challenges for Open-domain Targeted Sentiment Analysis
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
14+阅读 · 2020年1月27日
VIP会员
相关VIP内容
【WWW2022】TaxoEnrich:通过结构语义表示的自监督分类法补全
【WWW2022】交互式超图神经网络用于个性化产品搜索
专知会员服务
11+阅读 · 2022年2月13日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
【CIKM2021】用领域知识增强预训练语言模型的问题回答
专知会员服务
16+阅读 · 2021年11月18日
CIKM2021 | 用于链接预测的主题感知异质图神经网络
专知会员服务
24+阅读 · 2021年11月3日
专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
16+阅读 · 2021年9月18日
专知会员服务
33+阅读 · 2021年9月14日
专知会员服务
16+阅读 · 2021年8月25日
相关基金
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员