【NeurIPS 2020-Hinton论文】大型自监督模型是强有力的半监督学习器

2020 年 11 月 4 日 专知


在充分利用大量未标记数据的同时,从少量带标记的样例中学习的一种模式是,先进行无监督的预训练,然后进行有监督的微调。尽管与计算机视觉半监督学习的常见方法相比,这种范式以任务无关的方式使用未标记数据,但我们证明它对于ImageNet上的半监督学习非常有效。我们方法的一个关键要素是在训练前和微调期间使用大的(深度和广度的)网络。我们发现,标签越少,这种方法(使用未标记数据的任务无关性)从更大的网络中获益越多。经过微调后,通过第二次使用未标记的例子,将大的网络进一步改进,并以特定任务的方式将其精简为分类精度损失很小的小网络。本文提出的半监督学习算法可归纳为三个步骤: 使用SimCLRv2对一个大的ResNet模型进行无监督的预训练,对少量带标记的样例进行有监督的微调,以及对未带标记的样例进行精化和传递特定任务的知识。使用ResNet-50,该程序仅使用1%的标签(每个类别≤13张标记图像),就实现了73.9%的ImageNet top-1精度,比以前的最先进的标签效率提高了10倍。对于10%的标签,ResNet-50用我们的方法训练达到77.5%的top-1准确性,优于所有标签的标准监督训练。


https://www.zhuanzhi.ai/paper/0c81b63b2aaae1ae2cc1a9b0fbb382b2


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“SS3L” 可以获取《【NeurIPS 2020-Hinton论文】大型自监督模型是强有力的半监督学习器》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

半监督学习(Semi-Supervised Learning,SSL)是模式识别和机器学习领域研究的重点问题,是监督学习与无监督学习相结合的一种学习方法。半监督学习使用大量的未标记数据,以及同时使用标记数据,来进行模式识别工作。当使用半监督学习时,将会要求尽量少的人员来从事工作,同时,又能够带来比较高的准确性,因此,半监督学习目前正越来越受到人们的重视。
专知会员服务
29+阅读 · 2020年10月24日
专知会员服务
17+阅读 · 2020年10月18日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
34+阅读 · 2020年4月5日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【ICML 2020 】小样本学习即领域迁移
专知
5+阅读 · 2020年6月26日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
Arxiv
0+阅读 · 2021年2月2日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
26+阅读 · 2018年8月19日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年2月2日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
26+阅读 · 2018年8月19日
Top
微信扫码咨询专知VIP会员