In contrast to conventional pipeline Spoken Language Understanding (SLU) which consists of automatic speech recognition (ASR) and natural language understanding (NLU), end-to-end SLU infers the semantic meaning directly from speech and overcomes the error propagation caused by ASR. End-to-end slot filling (SF) from speech is an essential component of end-to-end SLU, and is usually regarded as a sequence-to-sequence generation problem, heavily relied on the performance of language model of ASR. However, it is hard to generate a correct slot when the slot is out-of-vovabulary (OOV) in training data, especially when a slot is an anti-linguistic entity without grammatical rule. Inspired by object detection in computer vision that is to detect the object from an image, we consider SF as the task of slot detection from speech. In this paper, we formulate the SF task as a matching task and propose an end-to-end knowledge-based SF model, named Speech-to-Slot (Speech2Slot), to leverage knowledge to detect the boundary of a slot from the speech. We also release a large-scale dataset of Chinese speech for slot filling, containing more than 830,000 samples. The experiments show that our approach is markedly superior to the conventional pipeline SLU approach, and outperforms the state-of-the-art end-to-end SF approach with 12.51% accuracy improvement.


翻译:传统管道语言理解(SLU)由自动语音识别(ASR)和自然语言理解(NLU)组成,与传统管道语言理解(SLU(SLU)形成对照的是,当语言识别(ASR)和自然语言理解(NLU)在培训数据时,终端至终端SLU(OOOV)直接从语言表达中推断出语义的含义,并克服ASR(ASR)造成的传播错误。端至终端空档填补(SF)是端至终端SLU(SF)的一个基本组成部分,通常被视为从语音检测到端到端,一个序列生成序列的问题,严重依赖ASR语言模型的性能。然而,当空档在培训数据中,特别是当一个空档是一个反语言实体而没有语法规则的时,SLUU(OOV)将语义表达的含义推断为正确位置时,很难产生一个正确的位置,特别是当一个空槽是一个反语言实体,在计算机视图中被检测到端天体的物体,我们认为SF(SF)作为匹配任务的一个匹配任务,并提议基于终端方法的Speop-SL(SL2S-SL)模式的端改进-SL)模式的终端方法,从语音方法,从语音到更清晰地展示一个图像的图像的图像的图像的高级测试,从高端位位数位,从我们系统,以显示的图像的图像的图像到显示一个图像的图像的图像的图像的图像,从12号。

1
下载
关闭预览

相关内容

【ACL2020】端到端语音翻译的课程预训练
专知会员服务
5+阅读 · 2020年7月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
知识图谱本体结构构建论文合集
专知会员服务
106+阅读 · 2019年10月9日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
6+阅读 · 2019年4月4日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
3+阅读 · 2018年6月19日
VIP会员
相关VIP内容
【ACL2020】端到端语音翻译的课程预训练
专知会员服务
5+阅读 · 2020年7月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
知识图谱本体结构构建论文合集
专知会员服务
106+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员