本文研究了面向任务的对话系统中的对话状态跟踪问题。最近,DST技术的发展取得了重大进展。然而,构建一个可扩展且有效的DST模块仍然是一个具有挑战性的问题。本文提出了一种对话状态跟踪的新方法Seq2Seq-DU,它将DST形式化为一个序列到序列的问题。它使用两个基于BERT的编码器分别对对话中的话语和模式的描述进行编码,使用一个关注器计算话语嵌入和模式嵌入之间的关注量,使用一个解码器生成指针来表示对话的当前状态。Seq2Seq-DU具有以下优点。它可以联合建模意图、插槽和插槽值之间的关系;它可以利用丰富的话语和图式的语言表征;它可以有效地处理分类槽、非分类槽和看不见的模式。此外,Seq2Seq-DU还可以用于对话系统的NLU(自然语言理解)模块。在基准数据集(SGD、MultiWOZ2.2、WOZ2.0、DSTC2、M2M、SNIPS和ATIS)上的实验结果表明,Seq2Seq-DU优于现有的方法。

成为VIP会员查看完整内容
29

相关内容

最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
专知会员服务
67+阅读 · 2020年10月2日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
35+阅读 · 2020年8月8日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
112+阅读 · 2020年4月23日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
NLP实践:对话系统技术原理和应用
AI100
34+阅读 · 2019年3月20日
前沿 | 字节跳动李航:智能与计算
MOOC
6+阅读 · 2019年2月6日
一文读懂智能对话系统
数据派THU
16+阅读 · 2018年1月27日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
6+阅读 · 2018年3月27日
VIP会员
微信扫码咨询专知VIP会员