Few-shot classification aims to adapt classifiers to novel classes with a few training samples. However, the insufficiency of training data may cause a biased estimation of feature distribution in a certain class. To alleviate this problem, we present a simple yet effective feature rectification method by exploring the category correlation between novel and base classes as the prior knowledge. We explicitly capture such correlation by mapping features into a latent vector with dimension matching the number of base classes, treating it as the logarithm probability of the feature over base classes. Based on this latent vector, the rectified feature is directly constructed by a decoder, which we expect maintaining category-related information while removing other stochastic factors, and consequently being closer to its class centroid. Furthermore, by changing the temperature value in softmax, we can re-balance the feature rectification and reconstruction for better performance. Our method is generic, flexible and agnostic to any feature extractor and classifier, readily to be embedded into existing FSL approaches. Experiments verify that our method is capable of rectifying biased features, especially when the feature is far from the class centroid. The proposed approach consistently obtains considerable performance gains on three widely used benchmarks, evaluated with different backbones and classifiers. The code will be made public.


翻译:少见的分类旨在让分类人员适应具有少数培训样本的新类,然而,培训数据的不足可能导致对某一类的特征分布的偏差估计。为了缓解这一问题,我们提出了一个简单而有效的特征校正方法,探索新类和基础类之间的类别相关性,作为先前的知识。我们通过将特征映射成一个与基类数量相匹配的维度相匹配的潜在矢量,将这种关联性作为基类的特征的对数概率来对待。根据这一潜在矢量,纠正的特征直接由一个解码器构建,我们期望在清除其他随机因素的同时保持与类别有关的信息,从而更接近于其类类的纯度。此外,通过改变软体型中的温度值,我们可以重新平衡特征的校正和重建,以取得更好的性能。我们的方法是通用的、灵活的和不可忽视的,任何特性的提取器和分类器很容易嵌入到现有的FSL方法中。实验证实我们的方法能够纠正偏差特征,特别是当特征远离类类类固度时,我们期望该方法能够保持与分类相关的信息,从而更接近于更接近于其类的类固化。此外,拟议的方法将大量地将基本原理用于对三个不同的标准进行分类。

0
下载
关闭预览

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
专知会员服务
109+阅读 · 2020年6月26日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
1+阅读 · 2022年2月15日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
FIGR: Few-shot Image Generation with Reptile
Arxiv
5+阅读 · 2019年1月8日
VIP会员
相关VIP内容
专知会员服务
109+阅读 · 2020年6月26日
Top
微信扫码咨询专知VIP会员