Zero-shot intent detection (ZSID) aims to deal with the continuously emerging intents without annotated training data. However, existing ZSID systems suffer from two limitations: 1) They are not good at modeling the relationship between seen and unseen intents, when the label names are given in the form of raw phrases or sentences. 2) They cannot effectively recognize unseen intents under the generalized intent detection (GZSID) setting. A critical factor behind these limitations is the representations of unseen intents, which cannot be learned in the training stage. To address this problem, we propose a class-transductive framework that utilizes unseen class labels to learn Disentangled Intent Representations (DIR). Specifically, we allow the model to predict unseen intents in the training stage, with the corresponding label names serving as input utterances. Under this framework, we introduce a multi-task learning objective, which encourages the model to learn the distinctions among intents, and a similarity scorer, which estimates the connections among intents more accurately based on the learned intent representations. Since the purpose of DIR is to provide better intent representations, it can be easily integrated with existing ZSID and GZSID methods. Experiments on two real-world datasets show that the proposed framework brings consistent improvement to the baseline systems, regardless of the model architectures or zero-shot learning strategies.


翻译:零射意图探测(ZSID)的目的是在没有附加说明的培训数据的情况下处理不断出现的意图,然而,现有的ZSID系统存在两个限制:(1) 当标签名称以原始短语或句子的形式提供时,它们并不善于模拟所见意图和不可见意图之间的关系;(2) 它们无法有效识别普遍意图探测(GZSID)设置下的无形意图; 这些限制背后的一个关键因素是隐蔽意图的表示,这些意图在培训阶段是无法学到的; 为了解决这一问题,我们提议了一个班级过渡框架,利用隐蔽的类标签学习分解的内在表示(DIR) 。具体地说,我们允许该模型在培训阶段预测所见意图和不可见意图之间的关系,而相应的标签名称则作为投入语句。在这个框架内,我们引入了一个多重任务学习目标,鼓励模型了解意图的区别,以及一个类似性评分,根据所学的意向陈述,更准确地估计各种意图之间的联系。由于DIR的目的是要提供更好的意图显示分解的内在的表示(DIR)说明,因此,我们允许模型在培训阶段预测看不见的无形意图,可以轻松地显示现有的实验系统。

0
下载
关闭预览

相关内容

专知会员服务
54+阅读 · 2019年12月22日
深度学习界圣经“花书”《Deep Learning》中文版来了
专知会员服务
235+阅读 · 2019年10月26日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
21+阅读 · 2020年10月11日
Arxiv
3+阅读 · 2019年8月26日
Polarity Loss for Zero-shot Object Detection
Arxiv
3+阅读 · 2018年11月22日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
7+阅读 · 2018年3月19日
VIP会员
相关VIP内容
专知会员服务
54+阅读 · 2019年12月22日
深度学习界圣经“花书”《Deep Learning》中文版来了
专知会员服务
235+阅读 · 2019年10月26日
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Arxiv
21+阅读 · 2020年10月11日
Arxiv
3+阅读 · 2019年8月26日
Polarity Loss for Zero-shot Object Detection
Arxiv
3+阅读 · 2018年11月22日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
7+阅读 · 2018年3月19日
Top
微信扫码咨询专知VIP会员