Spoken Language Understanding (SLU), a core component of the task-oriented dialogue system, expects a shorter inference latency due to the impatience of humans. Non-autoregressive SLU models clearly increase the inference speed but suffer uncoordinated-slot problems caused by the lack of sequential dependency information among each slot chunk. To gap this shortcoming, in this paper, we propose a novel non-autoregressive SLU model named Layered-Refine Transformer, which contains a Slot Label Generation (SLG) task and a Layered Refine Mechanism (LRM). SLG is defined as generating the next slot label with the token sequence and generated slot labels. With SLG, the non-autoregressive model can efficiently obtain dependency information during training and spend no extra time in inference. LRM predicts the preliminary SLU results from Transformer's middle states and utilizes them to guide the final prediction. Experiments on two public datasets indicate that our model significantly improves SLU performance (1.5\% on Overall accuracy) while substantially speed up (more than 10 times) the inference process over the state-of-the-art baseline.


翻译:语言语言理解(SLU)是任务导向对话系统的核心组成部分,由于人类的不耐烦,我们期望由于人类的不耐烦而缩短推导时间。非偏向 SLU模型明显提高推论速度,但因每个槽块之间缺乏相继依赖性信息而出现不协调的排列问题。为了弥补这一缺陷,我们在本文件中提议了一个名为“双层-REfine变异器”的新颖的非偏向 SLU模型,其中包括一个Slot Label(SLG)生成任务和一个层反射机制(LRM)。 SLG的定义是用象征序列和生成的槽标签生成下一个槽标签标签。与SLG相比,不偏向性模型可以在培训期间有效地获得依赖性信息,不花费额外的时间进行推断。LRMM预测变换器中状态的初步SLU结果,并利用它们指导最后的预测。两个公共数据集的实验表明,我们的模型大大改进了SLU的性能(1.5级总体精度),同时大大加快了总精度的基线进程(超过10次)。

0
下载
关闭预览

相关内容

百度智能生活事业群组(Smart Living Group,简称 SLG)成立于 2018 年 3 月,其前身是成立于 2017 年 2 月的度秘事业部。SLG 全面负责百度对话式人工智能操作系统小度助手(DuerOS)产品与技术创新,加速对话式人工智能领域的产品落地,是百度人工智能战略的重要组成部分。 SLG 的使命是打造无处不在的人工智能个人助手服务,用人工智能让人和设备的交互更自然,让生活更简单美好。
注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
0+阅读 · 2021年10月11日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员