Intent detection of spoken queries is a challenging task due to their noisy structure and short length. To provide additional information regarding the query and enhance the performance of intent detection, we propose a method for semantic expansion of spoken queries, called ConQX, which utilizes the text generation ability of an auto-regressive language model, GPT-2. To avoid off-topic text generation, we condition the input query to a structured context with prompt mining. We then apply zero-shot, one-shot, and few-shot learning. We lastly use the expanded queries to fine-tune BERT and RoBERTa for intent detection. The experimental results show that the performance of intent detection can be improved by our semantic expansion method.


翻译:有意探测口问是一项艰巨的任务,因为其结构吵闹,篇幅短。为了提供有关询问的补充信息,并提高意图检测的性能,我们建议了一种口问的语义扩展方法,称为ConQX,它利用自动递减语言模型GPT-2的文字生成能力。为了避免脱专题文本生成,我们将输入查询设定为结构化背景,并迅速开采。然后我们应用零射、一射和几发学习方法。我们最后使用扩大查询方法微调BERT和ROBERTA进行意向检测。实验结果显示,用我们的语义扩展方法可以改进意向检测的性能。

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
多轮对话之对话管理:Dialog Management
PaperWeekly
18+阅读 · 2018年1月15日
Arxiv
0+阅读 · 2021年10月22日
Arxiv
12+阅读 · 2019年2月28日
Polarity Loss for Zero-shot Object Detection
Arxiv
3+阅读 · 2018年11月22日
VIP会员
相关VIP内容
专知会员服务
88+阅读 · 2021年6月29日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Top
微信扫码咨询专知VIP会员