Spoken Language Understanding (SLU) is one essential step in building a dialogue system. Due to the expensive cost of obtaining the labeled data, SLU suffers from the data scarcity problem. Therefore, in this paper, we focus on data augmentation for slot filling task in SLU. To achieve that, we aim at generating more diverse data based on existing data. Specifically, we try to exploit the latent language knowledge from pretrained language models by finetuning them. We propose two strategies for finetuning process: value-based and context-based augmentation. Experimental results on two public SLU datasets have shown that compared with existing data augmentation methods, our proposed method can generate more diverse sentences and significantly improve the performance on SLU.


翻译:口语理解(SLU)是建立对话系统的一个必要步骤。由于获得标签数据的成本昂贵,SLU面临数据稀缺问题。因此,在本文中,我们把重点放在SLU填补空档任务的数据扩增上。为此,我们的目标是根据现有数据生成更加多样化的数据。具体地说,我们试图通过微调来利用预先培训的语言模式的潜在语言知识。我们提出了两个微调程序战略:基于价值和基于背景的增强。两个公共SLU数据集的实验结果显示,与现有的数据扩增方法相比,我们提议的方法可以产生更多样化的句子,并显著改善SLU的绩效。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2021年8月8日
达摩院基于元学习的对话系统
专知会员服务
25+阅读 · 2021年1月1日
【ACL2020】端到端语音翻译的课程预训练
专知会员服务
6+阅读 · 2020年7月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
74+阅读 · 2020年5月5日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Sentiment Analysis
黑龙江大学自然语言处理实验室
10+阅读 · 2018年5月6日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
3+阅读 · 2018年11月29日
Arxiv
6+阅读 · 2018年11月1日
VIP会员
Top
微信扫码咨询专知VIP会员