Most existing few-shot learning (FSL) methods require a large amount of labeled data in meta-training, which is a major limit. To reduce the requirement of labels, a semi-supervised meta-training (SSMT) setting has been proposed for FSL, which includes only a few labeled samples and numbers of unlabeled samples in base classes. However, existing methods under this setting require class-aware sample selection from the unlabeled set, which violates the assumption of unlabeled set. In this paper, we propose a practical semi-supervised meta-training setting with truly unlabeled data to facilitate the applications of FSL in realistic scenarios. To better utilize both the labeled and truly unlabeled data, we propose a simple and effective meta-training framework, called pseudo-labeling based meta-learning (PLML). Firstly, we train a classifier via common semi-supervised learning (SSL) and use it to obtain the pseudo-labels of unlabeled data. Then we build few-shot tasks from labeled and pseudo-labeled data and design a novel finetuning method with feature smoothing and noise suppression to better learn the FSL model from noise labels. Surprisingly, through extensive experiments across two FSL datasets, we find that this simple meta-training framework effectively prevents the performance degradation of various FSL models under limited labeled data, and also significantly outperforms the state-of-the-art SSMT models. Besides, benefiting from meta-training, our method also improves two representative SSL algorithms as well.


翻译:大多数小样本学习(Few-Shot Learning,FSL)方法需要大量标记数据用于元训练,这是一个主要限制。为了减少标记数据的要求,提出了半监督元训练(Semi-Supervised Meta-Training,SSMT)设置用于FSL,其中只包括少量基类别标记样本和无标记样本。然而,现有方法针对这种情况需要从无标记集合中进行有意识的样本选择,这违背了无标记集合的假设。本文提出了一个实际的半监督元训练设置,使用真正的无标记数据来促进FSL在实际情况下的应用。为了更好地利用有标记和真正无标记的数据,我们提出了一个简单而有效的元训练框架,称为基于伪标注的元学习(Pseudo-Labeling Based Meta-Learning,PLML)。首先,我们通过常见的半监督学习(Semi-Supervised Learning,SSL)训练分类器,并使用它来获得无标记数据的伪标签。然后,我们使用有标记和伪标签的数据构建小样本任务,并设计了一种新颖的微调方法,通过特征平滑和噪声抑制来更好地学习FSL模型。令人惊讶的是,在两个FSL数据集上的大量实验证明,该简单的元训练框架有效地防止了各种FSL模型在有限有标记数据下的性能下降,而且显著优于现有的SSMT模型。此外,由于元训练的好处,我们的方法还改善了两种代表性的SSL算法。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月2日
专知会员服务
87+阅读 · 2020年1月20日
使用PyTorch进行小样本学习的图像分类
极市平台
1+阅读 · 2022年11月4日
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
小样本学习(Few-shot Learning)综述
黑龙江大学自然语言处理实验室
28+阅读 · 2019年4月1日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
31+阅读 · 2020年9月21日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
13+阅读 · 2019年1月26日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关资讯
使用PyTorch进行小样本学习的图像分类
极市平台
1+阅读 · 2022年11月4日
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
小样本学习(Few-shot Learning)综述
黑龙江大学自然语言处理实验室
28+阅读 · 2019年4月1日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
相关论文
Arxiv
12+阅读 · 2022年4月12日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
31+阅读 · 2020年9月21日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
13+阅读 · 2019年1月26日
Arxiv
11+阅读 · 2018年7月8日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员