As the creation of task-oriented conversational data is costly, data augmentation techniques have been proposed to create synthetic data to improve model performance in new domains. Up to now, these learning-based techniques (e.g. paraphrasing) still require a moderate amount of data, making application to low-resource settings infeasible. To tackle this problem, we introduce an augmentation framework that creates synthetic task-oriented dialogues, operating with as few as 5 shots. Our framework utilizes belief state annotations to define dialogue functions of each turn pair. It then creates templates of pairs through de-lexicalization, where the dialogue function codifies the allowable incoming and outgoing links of each template. To generate new dialogues, our framework composes allowable adjacent templates in a bottom-up manner. We evaluate our framework using TRADE as the base DST model, observing significant improvements in the fine-tuning scenarios within a low-resource setting. We conclude that this end-to-end dialogue augmentation framework can be a practical tool for natural language understanding performance in emerging task-oriented dialogue domains.


翻译:由于创建面向任务的谈话数据费用高昂,因此提议了数据增强技术,以创建合成数据,改进新领域的模型性能。到目前为止,这些基于学习的技术(例如抛光法)仍需要少量数据,使得对低资源环境的应用不可行。为了解决这一问题,我们引入了一个增强框架,创建以任务为导向的综合对话,仅用5个镜头运作。我们的框架利用信仰状态说明来界定每个转角对的对话功能。然后通过脱灵活化创建配对模板,其中对话功能将每个模板的允许进出链接编码。为生成新对话,我们的框架以自下而上的方式构建了可允许的相邻模板。我们用贸易作为DST模型来评估我们的框架,观察在低资源环境下微调情景方面的重大改进。我们的结论是,这一端对端对话增强框架可以成为在新兴的任务导向对话领域自然语言理解业绩的实用工具。

0
下载
关闭预览

相关内容

专知会员服务
118+阅读 · 2019年12月24日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
多轮对话之对话管理:Dialog Management
PaperWeekly
18+阅读 · 2018年1月15日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Arxiv
8+阅读 · 2018年6月19日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
多轮对话之对话管理:Dialog Management
PaperWeekly
18+阅读 · 2018年1月15日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Top
微信扫码咨询专知VIP会员