We study the few-shot learning (FSL) problem, where a model learns to recognize new objects with extremely few labeled training data per category. Most of previous FSL approaches resort to the meta-learning paradigm, where the model accumulates inductive bias through learning many training tasks so as to solve a new unseen few-shot task. In contrast, we propose a simple approach to exploit unlabeled data accompanying the few-shot task for improving few-shot performance. Firstly, we propose a Dependency Maximization method based on the Hilbert-Schmidt norm of the cross-covariance operator, which maximizes the statistical dependency between the embedded feature of those unlabeled data and their label predictions, together with the supervised loss over the support set. We then use the obtained model to infer the pseudo-labels for those unlabeled data. Furthermore, we propose anInstance Discriminant Analysis to evaluate the credibility of each pseudo-labeled example and select the most faithful ones into an augmented support set to retrain the model as in the first step. We iterate the above process until the pseudo-labels for the unlabeled data becomes stable. Following the standard transductive and semi-supervised FSL setting, our experiments show that the proposed method out-performs previous state-of-the-art methods on four widely used benchmarks, including mini-ImageNet, tiered-ImageNet, CUB, and CIFARFS.


翻译:我们研究少见的学习(FSL)问题, 模型可以学习识别新对象, 每类有极少标签的培训数据。 以前的FSL大多采用元学习模式, 模型通过学习许多培训任务积累感化偏差, 从而解决新的看不见的少见任务。 相反, 我们提出一个简单的方法, 利用少数任务附带的无标签数据来改进微小的性能。 首先, 我们提议基于跨变量操作员Hilbert- Schmidt 的Hilbert- Schmidt 标准实现依赖性最大化方法, 使这些未标签数据及其标签预测之间的内在特征在统计上具有最大的依赖性, 再加上对成套支持的监督损失。 我们随后使用获得的模型来推断这些未标签数据所用的假标签。 此外, 我们提议采用Instart Discriminal 分析, 来评价每个伪标签示例的可信度, 选择最忠实的模型, 作为第一步重新配置模型的强化支持组。 我们使用上述进程, 包括模拟的C- IMBL 和IMFSB 上的拟议标准, 之前的升级 格式,, 将 升级 升级 升级 格式 升级 升级 升级 升级 升级 格式 升级 格式, 升级 升级 升级, 升级 升级 升级 升级 升级 升级, 升级 升级 升级 升级 升级 升级 升级, 升级 升级 升级 升级 升级, 升级 升级, 升级 升级 升级 升级 升级 升级 升级 升级, 升级, 升级 升级 升级, 升级 升级, 升级 升级 升级, 升级 升级 升级 升级 升级 升级 升级 升级, 升级 升级 升级 升级 升级 升级 升级 升级,,, 升级, 升级, 升级,,, 升级 升级 升级, 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级, 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级 升级

0
下载
关闭预览

相关内容

【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
24+阅读 · 2019年12月15日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
13+阅读 · 2019年1月26日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关VIP内容
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
24+阅读 · 2019年12月15日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员