This paper is concerned with dialogue state tracking (DST) in a task-oriented dialogue system. Building a DST module that is highly effective is still a challenging issue, although significant progresses have been made recently. This paper proposes a new approach to dialogue state tracking, referred to as Seq2Seq-DU, which formalizes DST as a sequence-to-sequence problem. Seq2Seq-DU employs two BERT-based encoders to respectively encode the utterances in the dialogue and the descriptions of schemas, an attender to calculate attentions between the utterance embeddings and the schema embeddings, and a decoder to generate pointers to represent the current state of dialogue. Seq2Seq-DU has the following advantages. It can jointly model intents, slots, and slot values; it can leverage the rich representations of utterances and schemas based on BERT; it can effectively deal with categorical and non-categorical slots, and unseen schemas. In addition, Seq2Seq-DU can also be used in the NLU (natural language understanding) module of a dialogue system. Experimental results on benchmark datasets in different settings (SGD, MultiWOZ2.2, MultiWOZ2.1, WOZ2.0, DSTC2, M2M, SNIPS, and ATIS) show that Seq2Seq-DU outperforms the existing methods.


翻译:本文涉及以任务为导向的对话系统中的对话状态跟踪( DST ) 。 建立一个非常有效的 DST 模块仍然是一个挑战性的问题, 尽管最近已经取得了显著的进展。 本文提出了一个新的对话状态跟踪方法, 称为 Seq2Seq2Seq- Duu, 将 DST 正式化成一个序列至序列问题。 Seq2Seq- Du 使用两个基于 BERT 的词解码器, 以分别编码对话和描述中的发言和描述 schemas 的描述。 一个参与者, 来计算话嵌入和方程式嵌嵌入之间的注意力, 以及一个解码器, 以生成显示当前对话状态的指针。 Seq2Seq2Seq-D Dud有以下优点。 它可以联合模拟意图、 时间段和时间段值; 它可以利用基于 BERT 的发音和方程式的丰富表述; 它可以有效地处理直线和非分类的位置, 以及看不见的 schemetas。 此外, Seq2Seq-DUDU-DU 还可以在NL2, ASeal AS 系统、 SSeal SSeal SSereal 、 SSO、 和多语言理解的现有数据系统( AS2、MU 2、多语言理解SUDUMU 2、多语言模块、多语言模块、 AS2、多语言系统、多语言定义、 SU 2、多语言理解方法、 AS2、多语言制式、 、多语言制式、多路、多语言制式、多路、多语言制式、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、SO、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、多路、SO、多路、多路、多路、多路、多路

0
下载
关闭预览

相关内容

预训练语言模型fine-tuning近期进展概述
专知会员服务
38+阅读 · 2021年4月9日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
NLP实践:对话系统技术原理和应用
AI100
34+阅读 · 2019年3月20日
多轮对话之对话管理:Dialog Management
PaperWeekly
18+阅读 · 2018年1月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
一种基于Sequence-to-Sequence的高质量对话生成方法
科技创新与创业
9+阅读 · 2017年11月13日
已删除
将门创投
3+阅读 · 2017年11月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
Arxiv
17+阅读 · 2021年3月29日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Using Scene Graph Context to Improve Image Generation
Neural Approaches to Conversational AI
Arxiv
8+阅读 · 2018年12月13日
Arxiv
3+阅读 · 2018年11月12日
VIP会员
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
NLP实践:对话系统技术原理和应用
AI100
34+阅读 · 2019年3月20日
多轮对话之对话管理:Dialog Management
PaperWeekly
18+阅读 · 2018年1月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
一种基于Sequence-to-Sequence的高质量对话生成方法
科技创新与创业
9+阅读 · 2017年11月13日
已删除
将门创投
3+阅读 · 2017年11月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
相关论文
Top
微信扫码咨询专知VIP会员