Generalized zero-shot learning (GZSL) is one of the most realistic but challenging problems due to the partiality of the classifier to supervised classes, especially under the class-inductive instance-inductive (CIII) training setting, where testing data are not available. Instance-borrowing methods and synthesizing methods solve it to some extent with the help of testing semantics, but therefore neither can be used under CIII. Besides, the latter require the training process of a classifier after generating examples. In contrast, a novel non-transductive regularization under CIII called Semantic Borrowing (SB) for improving GZSL methods with compatibility metric learning is proposed in this paper, which not only can be used for training linear models, but also nonlinear ones such as artificial neural networks. This regularization item in the loss function borrows similar semantics in the training set, so that the classifier can model the relationship between the semantics of zero-shot and supervised classes more accurately during training. In practice, the information of semantics of unknown classes would not be available for training while this approach does NOT need it. Extensive experiments on GZSL benchmark datasets show that SB can reduce the partiality of the classifier to supervised classes and improve the performance of generalized zero-shot classification, surpassing inductive GZSL state of the arts.


翻译:通用零光学习(GZSL)是最现实但具有挑战性的问题之一,因为分类者偏向于监管的班级,特别是在没有测试数据的班级感性试感(CIII)培训设置下,没有测试数据。 例举方法和合成方法在某种程度上通过测试语义学解决了这个问题,但因此在CIII下也不能使用。 此外,CZSL要求分类者在生成实例后进行分类者的培训过程更为精确。相比之下,本文建议采用新的非转化性正规化(CIII,称为SB)来改进GZSL方法,使之与兼容性度衡量学习(CIII)相比,这不仅可用于培训线性模型,而且还可用于人工神经网络等非线性模型。 损失函数中的这一正规化项目在培训设置中借用了类似的语义学,因此,分类者可以在培训期间更准确地模拟零光谱和监管班级之间的关系。 实际上,未知班级的语义学术语学信息将无法用于培训,而这一方法不仅可用于培训线性模型,而且还可用于培训线性模型,因此需要将GSLSL的高级等级升级为SLA级的升级。

0
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
17+阅读 · 2021年2月15日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员