We introduce a simple yet effective distillation framework that is able to boost the vanilla ResNet-50 to 80%+ Top-1 accuracy on ImageNet without tricks. We construct such a framework through analyzing the problems in the existing classification system and simplify the base method ensemble knowledge distillation via discriminators by: (1) adopting the similarity loss and discriminator only on the final outputs and (2) using the average of softmax probabilities from all teacher ensembles as the stronger supervision. Intriguingly, three novel perspectives are presented for distillation: (1) weight decay can be weakened or even completely removed since the soft label also has a regularization effect; (2) using a good initialization for students is critical; and (3) one-hot/hard label is not necessary in the distillation process if the weights are well initialized. We show that such a straight-forward framework can achieve state-of-the-art results without involving any commonly-used techniques, such as architecture modification; outside training data beyond ImageNet; autoaug/randaug; cosine learning rate; mixup/cutmix training; label smoothing; etc. Our method obtains 80.67% top-1 accuracy on ImageNet using a single crop-size of 224x224 with vanilla ResNet-50, outperforming the previous state-of-the-arts by a significant margin under the same network structure. Our result can be regarded as a strong baseline using knowledge distillation, and to our best knowledge, this is also the first method that is able to boost vanilla ResNet-50 to surpass 80% on ImageNet without architecture modification or additional training data. On smaller ResNet-18, our distillation framework consistently improves from 69.76% to 73.19%, which shows tremendous practical values in real-world applications. Our code and models are available at: https://github.com/szq0214/MEAL-V2.


翻译:我们引入了一个简单而有效的蒸馏框架, 能够将 Villa ResNet-50 提升到 80 ⁇ Top-1 在图像网络上的精度。 我们通过分析现有分类系统的问题, 并通过歧视者简化基本方法的全套知识蒸馏程序来构建这样一个框架 : (1) 仅对最终产出采用相似性损失和区分符, (2) 使用所有教师组合的软式马克斯概率平均值作为更强的监管。 有趣的是, 为蒸馏提供了三个新视角:(1) 重量衰减可以被削弱,甚至完全去除, 因为软标签也具有正规化效果; (2) 使用良好的学生初始化功能至关重要; (3) 如果重量完全初始化, 在蒸馏过程中不需要一流/ 硬标签 。 我们的蒸馏过程中, 这种直线式框架可以实现最新结果, 而没有任何常用的技术, 比如架构的修改; 超过图像网络的外部培训数据; 自动变压/变压; 精度的变压; 更硬的学习速度率; 使用不固定的On- climix 培训; 将前半级的网络结构标定, 我们的高级的机的精度结构显示为正态结构。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年4月5日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
专知会员服务
10+阅读 · 2021年3月21日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
神经网络训练tricks
极市平台
6+阅读 · 2019年4月15日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
7+阅读 · 2019年2月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
图像分类算法优化技巧:Bag of Tricks for Image Classification
人工智能前沿讲习班
8+阅读 · 2019年1月2日
博客 | CIFAR10 数据预处理
AI研习社
11+阅读 · 2018年10月12日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
0+阅读 · 2021年5月13日
Arxiv
0+阅读 · 2021年5月12日
Arxiv
0+阅读 · 2021年5月4日
VIP会员
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
神经网络训练tricks
极市平台
6+阅读 · 2019年4月15日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
7+阅读 · 2019年2月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
图像分类算法优化技巧:Bag of Tricks for Image Classification
人工智能前沿讲习班
8+阅读 · 2019年1月2日
博客 | CIFAR10 数据预处理
AI研习社
11+阅读 · 2018年10月12日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Top
微信扫码咨询专知VIP会员