目前的深度神经网络需要为每个新任务收集大量带标签的训练数据,在一定程度上限制了其实用性。给定来自一组源任务的数据,可以使用两种迁移学习方法来克服此限制:小样本学习(FSL)和自监督学习(SSL)。前者旨在通过使用源任务设计学习场景来学习“如何学习”,以模拟用很少的带标签样本来解决目标新任务的挑战。相反,后者利用所有源任务中的无注释预定义任务来学习可泛化的特征表示。本文提出了一个创新的实例级和场景级的预定义任务(IEPT)框架,该框架无缝地将SSL集成到FSL中。具体来说,给定FSL场景,我们首先将几何变换应用于每个实例以生成扩展场景。在实例级别,按照标准的SSL执行转换识别。重要的是,在场景级别中我们设计了两个SSL-FSL混合学习目标:(1)场景级别的预定义任务,会最大限度地提高来自不同扩展场景的FSL分类预测结果之间的一致性;(2)将从每个实例中跨不同场景提取的特征进行集成,以构建用于元学习的单个FSL分类器。大量实验表明,我们提出的模型(即带有IEPT的FSL)达到了最新的技术水平。

成为VIP会员查看完整内容
13

相关内容

【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
44+阅读 · 2021年1月31日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
17+阅读 · 2020年9月21日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
26+阅读 · 2020年5月25日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
ICCV2019|基于全局类别表征的小样本学习
极市平台
11+阅读 · 2019年9月21日
半监督深度学习小结:类协同训练和一致性正则化
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
44+阅读 · 2021年1月31日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
17+阅读 · 2020年9月21日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
26+阅读 · 2020年5月25日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
相关资讯
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
ICCV2019|基于全局类别表征的小样本学习
极市平台
11+阅读 · 2019年9月21日
半监督深度学习小结:类协同训练和一致性正则化
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
微信扫码咨询专知VIP会员