【ICLR2021】自监督蒸馏学习视觉表示

2021 年 4 月 14 日 专知

本文主要聚焦于小模型(即轻量型模型)的自监督学习问题,作者通过实证发现:对比自监督学习方法在大模型训练方面表现出了很大进展,然这些方法在小模型上的表现并不好。


为解决上述问题,本文提出了一种新的学习框架:自监督蒸馏(SElf-SupErvised Distillation, SEED),它通过自监督方式(SSL)将老师模型的知识表达能力迁移给学生模型。不同于直接在无监督数据上的直接学习,我们训练学生模型去模拟老师模型在一组示例上的相似度得分分布。


所提SEED的简洁性与灵活性不言而喻,包含这样三点:(1) 无需任何聚类/元计算步骤生成伪标签/隐类;(2) 老师模型可以通过优秀的自监督学习(比如MoCo-V2、SimCLR、SWAV等)方法进行预训练;(3)老师模型的知识表达能力可以蒸馏到任意小模型中(比如更浅、更细,甚至可以是完全不同的架构)。


实验表明:SEED可以提升小模型在下游任务上的性能表现。相比自监督基准MoCo-V2方案,在ImageNet数据集上,SEED可以将EfficientNet-B0的精度从42.2%提升到67.6%,将MobileNetV3-Large的精度从36.3%提升到68.2%,见下图对比。


https://arxiv.org/pdf/2101.04731.pdf



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“SEED” 就可以获取【ICLR2021】自监督蒸馏学习视觉表示》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询

点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
27+阅读 · 2021年5月2日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
18+阅读 · 2020年6月28日
Video Swin Transformer
Arxiv
0+阅读 · 2021年6月24日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
15+阅读 · 2018年4月3日
VIP会员
相关VIP内容
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
27+阅读 · 2021年5月2日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
Top
微信扫码咨询专知VIP会员