Zero-shot learning (ZSL) aims to recognize novel classes by transferring semantic knowledge from seen classes to unseen ones. Semantic knowledge is learned from attribute descriptions shared between different classes, which act as strong priors for localizing object attributes that represent discriminative region features, enabling significant visual-semantic interaction. Although some attention-based models have attempted to learn such region features in a single image, the transferability and discriminative attribute localization of visual features are typically neglected. In this paper, we propose an attribute-guided Transformer network, termed TransZero, to refine visual features and learn attribute localization for discriminative visual embedding representations in ZSL. Specifically, TransZero takes a feature augmentation encoder to alleviate the cross-dataset bias between ImageNet and ZSL benchmarks, and improves the transferability of visual features by reducing the entangled relative geometry relationships among region features. To learn locality-augmented visual features, TransZero employs a visual-semantic decoder to localize the image regions most relevant to each attribute in a given image, under the guidance of semantic attribute information. Then, the locality-augmented visual features and semantic vectors are used to conduct effective visual-semantic interaction in a visual-semantic embedding network. Extensive experiments show that TransZero achieves the new state of the art on three ZSL benchmarks. The codes are available at: \url{https://github.com/shiming-chen/TransZero}.


翻译:零点学习( ZSL) 旨在通过将语义学知识从可见的类向看不见的类转移来识别新课程。 语义学知识是从不同类之间共享的属性描述中学习的, 它们是体现歧视区域特征的物体属性本地化的有力前科, 能够带来显著的视觉- 语义互动。 尽管一些基于关注的模型试图在单一图像中学习这些区域特征, 但视觉特征的可转移性和歧视性属性本地化通常被忽略。 在本文中, 我们建议建立一个属性引导变异器网络, 名为 TransZero, 以完善视觉特性, 学习ZSL 中歧视视觉嵌入显示的表达方式的属性属性。 具体来说, TransZero使用一个增强功能编码来减轻图像网络和 ZSLSL基准之间的交叉数据集偏移偏移偏差, 通过减少区域特征之间的关联性相对地貌关系来改善视觉特征的可转移性。 为了学习定位的视觉- Transezeerro 使用视觉- sloveyal- develyal sider zal develys laction- subal developmental developmental dismissational deview subismation, 在可展示 Zeal- slaviewmal- sabational- sabational- laction- side- silationalizational- sabational- sabilational- sabilational- sabilmental- silationaldationaldational- reduction- reduction- zation- smation- saldaldaldationaldmentaldal- sal- sal- sabal- sal- saldal- saldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldal- sal- sal- sal- fialdaldal- sal- sal- sal-se- sal- sal- saldaldaldaldaldal- saldaldaldaldaldaldal-

0
下载
关闭预览

相关内容

【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
91+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
14+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
17+阅读 · 2021年2月15日
A Graph Auto-Encoder for Attributed Network Embedding
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
14+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员