在充分利用大量未标记数据的同时,从少量带标记的样例中学习的一种模式是,先进行无监督的预训练,然后进行有监督的微调。尽管与计算机视觉半监督学习的常见方法相比,这种范式以任务无关的方式使用未标记数据,但我们证明它对于ImageNet上的半监督学习非常有效。我们方法的一个关键要素是在训练前和微调期间使用大的(深度和广度的)网络。我们发现,标签越少,这种方法(使用未标记数据的任务无关性)从更大的网络中获益越多。经过微调后,通过第二次使用未标记的例子,将大的网络进一步改进,并以特定任务的方式将其精简为分类精度损失很小的小网络。本文提出的半监督学习算法可归纳为三个步骤: 使用SimCLRv2对一个大的ResNet模型进行无监督的预训练,对少量带标记的样例进行有监督的微调,以及对未带标记的样例进行精化和传递特定任务的知识。使用ResNet-50,该程序仅使用1%的标签(每个类别≤13张标记图像),就实现了73.9%的ImageNet top-1精度,比以前的最先进的标签效率提高了10倍。对于10%的标签,ResNet-50用我们的方法训练达到77.5%的top-1准确性,优于所有标签的标准监督训练。

https://www.zhuanzhi.ai/paper/0c81b63b2aaae1ae2cc1a9b0fbb382b2

成为VIP会员查看完整内容
24

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
28+阅读 · 2020年10月24日
专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
25+阅读 · 2020年10月13日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【ICML2020】小样本目标检测
专知
7+阅读 · 2020年6月2日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
Arxiv
2+阅读 · 2020年12月15日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Arxiv
8+阅读 · 2018年11月21日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2020年10月24日
专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
25+阅读 · 2020年10月13日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
微信扫码咨询专知VIP会员