Zero-shot Learning (ZSL), which aims to predict for those classes that have never appeared in the training data, has arisen hot research interests. The key of implementing ZSL is to leverage the prior knowledge of classes which builds the semantic relationship between classes and enables the transfer of the learned models (e.g., features) from training classes (i.e., seen classes) to unseen classes. However, the priors adopted by the existing methods are relatively limited with incomplete semantics. In this paper, we explore richer and more competitive prior knowledge to model the inter-class relationship for ZSL via ontology-based knowledge representation and semantic embedding. Meanwhile, to address the data imbalance between seen classes and unseen classes, we developed a generative ZSL framework with Generative Adversarial Networks (GANs). Our main findings include: (i) an ontology-enhanced ZSL framework that can be applied to different domains, such as image classification (IMGC) and knowledge graph completion (KGC); (ii) a comprehensive evaluation with multiple zero-shot datasets from different domains, where our method often achieves better performance than the state-of-the-art models. In particular, on four representative ZSL baselines of IMGC, the ontology-based class semantics outperform the previous priors e.g., the word embeddings of classes by an average of 12.4 accuracy points in the standard ZSL across two example datasets (see Figure 4).


翻译:零点学习(ZSL)旨在预测那些在培训数据中从未出现过的班级(ZSL)的预测,它引起了激烈的研究兴趣。实施 ZSL的关键是利用以前班级的知识,这些班级在班级之间建立语义关系,使学习模型(例如特征)从训练班(即被看见的班级)转移到看不见班级。然而,现有方法采用的前期方法相对有限,语义不完整。在本文中,我们探索了更丰富和更具竞争力的先前知识,通过基于内科的知识表达和语义嵌入来模拟ZSL的班际关系。与此同时,为了解决所见班级和看不见班级之间的数据不平衡,我们开发了一个具有基因化的ZSL框架(例如特征)从训练班(即被看见的班级)转到看不见的班级。我们的主要调查结果包括:(一) 一个基于本的ZSLSL框架,可以适用于不同领域,例如图像分类(IMGC)和知识图表完成(KGC), (二) 以多个零点的SLSL- sal sal sal sal devely sli laveal laveal sal sal sal sal sal ex sal ex sal a pal ex ex ex ex laveal a pas ex ex ex ex ex a pas ex a ex ex a pal a ex a ex a ex a ex ex ex ex ex ex ex ex ex ex ex ex laut the pal sal sal sal sal sal sal sal a ex ex. ex lautes. a lements sal salds sal sal. a pal a pal sal. a lats. a pal. a lats.

17
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
云栖社区
21+阅读 · 2019年4月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
25+阅读 · 2018年11月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Arxiv
4+阅读 · 2019年4月3日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
云栖社区
21+阅读 · 2019年4月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
25+阅读 · 2018年11月1日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Top
微信扫码咨询专知VIP会员