本文介绍来自中国科学院自动化所的最近被ICML2023接收的文章:A Closer Look at Self-Supervised Lightweight Vision Transformers.

论文链接:https://arxiv.org/abs/2205.14443 代码链接:https://github.com/wangsr126/mae-lite

导读:最近“预训练大模型”这个概念异常火爆,大家都期待可以通过增加模型尺寸以达到“涌现”的效果。视觉领域也出现了大量的预训练方法和预训练模型,且取得了非常不错的效果。然而,视觉任务又有其独特性,隐私性、实时性等一系列应用场景的限制使得边缘端实际部署的模型多是轻量模型,而这些轻量模型应该怎样预训练却鲜少被研究。本文即针对这一问题,重点关注轻量级ViT的预训练,通过大量的实验与分析为轻量级ViT的预训练提供一个“实践手册”。众多预训练方法中哪种可以在轻量级模型上表现得更好?不同下游任务中这些方法的优劣对比又会有何种不同?各种轻量级预训练模型又是为什么会表现出上述的实验现象?有没有办法获得在各种下游任务中通用的“全能”预训练模型?这些问题都会在本文中一一被解答。

太长不看版:

本文首先将论文中的众多实验性结论总结如下,后面会对其进行详细介绍: * 对于轻量级ViT(例如5.7M的ViT-Tiny),当下游任务的数据比较充足时,基于Masked-Image-Modeling(MIM)的自监督预训练方法[1][2]表现最好,优于基于Contrastive Learning(CL)的方法[3][4],甚至比基于ImageNet-21k的全监督预训练模型表现得更好; * 原始的ViT结构在轻量模型这个赛道中仍旧具有巨大潜力,而合适的预训练手段就是释放其潜力的一把钥匙,例如:采用合适的基于MAE(Masked AutoEncoder[1])的预训练并在ImageNet上进行微调后,仅包含5.7M参数的原始的ViT-Tiny就可以取得79.0%的top1 accuracy,超过了一众轻量级ConvNets和近两年各种精心设计的ViT变种网络; * 基于MAE的预训练轻量级ViT并不是万能的,它也有一些缺陷,例如:当下游任务的数据规模比较小时,它的迁移效果就很差,明显弱于全监督的预训练模型,也比基于CL的预训练模型差; * 出现上述现象的原因可能是:基于MIM的预训练模型浅层(靠近输入端的若干层)学的非常好,而高层(靠近输出端的若干层)却出现了明显的表征退化;而基于CL的预训练模型虽然高层能学到还不错的语义特征,但却无法学习到可能对下游任务更有帮助的一些归纳偏置(inductive bias); * 通过知识蒸馏,可以借助一个更大规模的基于MAE的预训练模型(例如MAE-Base)去帮助轻量级ViT的预训练,仅采用基于attention map的蒸馏就可以显著改善其在小规模下游任务上的糟糕表现。

接下来会对论文的内容进行具体介绍。

哪种预训练方法表现最好?

文章基于ViT-Tiny(5.7M)这个采用原始ViT结构的轻量级模型,首先采用各种预训练方法得到若干预训练模型(各种方法均针对轻量级模型进行了训练配置调优),测试了它们在ImageNet-1k上的微调性能。 各种预训练方法在ImageNet上的对比 表中可以看出:对于轻量级ViT,其同样可以像大模型一样,显著受益于各种预训练方法。其中,基于MIM的自监督预训练方法(例如MAE,SimMIM)表现出优于CL的自监督预训练方法(例如MoCo-v3,DINO)的效果,甚至优于基于更大规模的ImageNet-21k(IN21K)的全监督预训练;而其中MAE的预训练成本最低,且精度最高。 于是,我们便好奇,在合适的预训练手段加持下,ViT-Tiny这个结构足够原始且简单的模型的性能上限究竟有多高?

预训练加持下的轻量级ViT的性能上限有多高?

我们对ViT-Tiny采用MAE进行预训练,然后在ImageNet上进行微调,其与其他一众轻量级模型的对比如下:

采用合适的预训练后ViT-Tiny与SOTA轻量级网络的性能对比

表中可见,即使是在足够强的fine-tuning的recipe下,MAE的预训练依旧可以带来显著的性能增益(77.8→79.0),且基于MAE预训练的模型只微调了300 epochs就已超过了从头训练1000 epochs的模型(78.5 vs. 77.8)。而与表中的众多ConvNets和ViT的变种网络相比,ViT-Tiny依旧表现出非常有竞争力的性能,且具有较高的throughput。这说明:一个“普通”的网络结构与SOTA的性能之间,差的可能只是一个合适的训练方案,这为轻量级模型的研究提供了一条除人工设计复杂网络结构之外的道路。 除此之外,表中还包括一些采用了全监督、自监督预训练的卷积网络,但是可以看出:预训练对于ViT的增益更大(例如:ConvNeXt V2-F采用基于MIM的预训练只能提升0.5,而ViT-Tiny却可以提升1.2),这个可以理解为:ViT结构具有更少的人为设计的特性,而预训练可以以数据/任务驱动的模式对其进行补足,因此其增益更大,且表现出比通过人为设计引入inductive bias的网络更强的潜力。换句话说:基于naive的网络结构,通过合适的预训练与数据驱动,使得它变成下游任务需要的模样,可能比人为设计模型应该是什么样子具有更高的性能上限。

预训练方案有哪些缺陷?

首先,我们发现,对于轻量级ViT来说,增加预训练数据的规模无法使得其取得更好的迁移性能:

甚至MAE对于预训练数据表现出惊人的鲁棒性:只用1%的预训练数据依旧可以取得与使用100%ImageNet-1k(IN1K)相近的性能,且对于预训练数据的类别分布也不太敏感。 其次,我们发现,这些轻量级自监督预训练模型似乎没办法很好的迁移到数据规模较小的下游任务上:

其中,在各种下游分类任务上,基于MIM的预训练模型表现明显弱于全监督预训练模型,而基于CL的预训练模型同样如此但差距较小;而在COCO检测任务上,基于CL的DINO预训练模型则表现出更好的迁移性能;这与在ImageNet上观察到的现象并不一致。这说明,不同预训练模型在不同规模的下游数据集上可能表现出不一致的特性,可能需要根据下游数据集的特性选择合适的预训练方案。例如:当下游数据集规模较小且数据集类别分布与预训练数据较为一致时,全监督预训练方案可能更为合适;而当下游数据足够充足时,基于MIM的预训练方案可能效果更好。


接下来,我们尝试引入一些模型分析手段,对这些预训练模型进行分析,以期理解出现上述实验现象的原因。

预训练模型逐层表征分析

我们首先以基于IN1K全监督训练ViT模型(DeiT-Tiny)作为参考模型,研究各种预训练模型(基于MAE的MAE-Tiny,基于SimMIM的SimMIM-Tiny,基于MoCo v3的MoCov3-Tiny与基于DINO的DINO-Tiny)与其之间的逐层表征相似度[5]。

我们发现: * 同类预训练模型具有相似的逐层表征结构,例如:基于MIM的MAE-Tiny和SimMIM-Tiny的相似度heatmap比较像,而基于CL的MoCov3-Tiny和DINO-Tiny较为相似; * 基于MIM的预训练模型高层出现了表征退化,即其高层表现出与DeiT-Tiny浅层较高的相似度; * 基于CL的预训练模型与DeiT-Tiny具有较好的逐层对齐关系。

据此我们推测,可能正是这些模型高层的差异导致了上述实验现象。为验证这个猜想,我们进行了如下实验:仅保留预训练模型的若干浅层,测试其在各种规模的下游任务上的迁移性能,已测试预训练模型各层对于迁移性能的贡献度。

图中可以看出: * 仅保留MAE-Tiny的前4层即可在ImageNet上取得良好的迁移性能,这说明,对于数据充足的下游任务,预训练模型的浅层可能更加重要,而高层的质量则影响较小; * 随着数据规模减小,MoCov3-Tiny的高层对于性能的增益越来越大,这也是其在这些数据集上性能超过MAE的关键,这说明,对于数据规模较小的下游任务,预训练模型的高层也很重要;

以上分析也说明,想办法改进MAE-Tiny的高层表征质量,或许可以提高其在小规模下游任务中的迁移性能。

预训练模型逐层注意力分析

接下来,我们分析预训练模型逐层的attention map,对于ViT来说,它可以反映模型在自注意力机制中信息融合的偏好特性。具体来说,我们选择重点分析attention distance与attention entropy,前者可以反映每个token是较多关注到近处(local)的区域还是远处的区域(即global),后者可以反映每个token的关注点是集中到少数几个token上(concentrated)还是广泛地关注到众多token上(broad)。我们以箱线图的形式,可视化了预训练模型逐层attention distance与entropy的分布。

我们首先对比了是否采用MAE-Tiny作为预训练在ImageNet-1k上微调(训练)后的模型(MAE-Tiny-FT vs. DeiT-Tiny),发现采用MAE-Tiny作为预训练可以使得模型的attention更加local与concentrated,这些可能被作为inductive bias被预训练引入到了模型中,使得其在ImageNet上取得了更好的性能表现。 而对比MoCov3-Tiny与MAE-Tiny可以发现,虽然两者相较于随机初始化均可一定程度上引入local inductive bias,但MoCov3-Tiny从浅层到高层仍旧较为global且broad。这种特性可能使得以其为初始化的模型在下游微调时倾向于“走捷径”,直接关注到全局信息而忽视局部细节信息。这对于较为简单的下游任务来说可能是足够的,但却未必适宜难度较高的需要细粒度识别的分类任务(例如ImageNet)。

最后,文章验证了采用一种简单的知识蒸馏手段,即可显著改善基于MAE的轻量级预训练的质量,并显著改善其下游迁移性能。

蒸馏方法与实验效果

具体来说,基于MAE的框架,引入一个同样采用MAE预训练的较大规模的网络(例如MAE-Base),并基于教师网络与学生网络的attention map之间的相似度构建蒸馏损失:

总结

文章聚焦在轻量级ViT的预训练上,相当于为相关方向的研究提供了一个benchmark,相关的代码与模型也都会开源,方便后续大家在这一方向上继续探索; * 文章的研究也打破了之前人们对于ViT在轻量级赛道上没有竞争优势的惯有印象,只要采用合适的预训练手段,轻量级ViT也会表现出足够的竞争力;同时,文章也相当于为后续轻量级模型结构设计的相关研究提出了一个新的且足够高的bar,“你的优势未必是因为你足够好,可能只不过是因为你曾经看不上的竞争对手还没有充分发力”; * 文章首次将知识蒸馏引入基于MIM的轻量级ViT的预训练中,并以极简的形式取得了显著的性能提升; * 文章在解决了一些问题的同时也带来了更多的问题,例如:有没有办法可以让轻量级ViT吃下更多的预训练数据带来更多的增益?有没有办法高效融合基于CL和MIM的预训练方法,使得其兼具两者的优势?有没有办法不借助知识蒸馏来提升基于MIM的预训练模型的高层表征质量?这些问题可能都值得未来去进一步探索。

参考

^abMasked Autoencoders Are Scalable Vision Learners. https://arxiv.org/abs/2111.06377 1. ^SimMIM: A Simple Framework for Masked Image Modeling. https://arxiv.org/abs/2111.09886 1. ^An Empirical Study of Training Self-Supervised Vision Transformers. https://arxiv.org/abs/2104.02057 1. ^Emerging Properties in Self-Supervised Vision Transformers. https://arxiv.org/abs/2104.14294 1. ^Algorithms for Learning Kernels Based on Centered Alignment. https://arxiv.org/abs/1203.0550

成为VIP会员查看完整内容
39

相关内容

【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
34+阅读 · 2023年6月12日
【ICML2023】终身语言预训练与分布式专业化专家
专知会员服务
26+阅读 · 2023年5月26日
视觉Transformer预训练模型的胸腔X线影像多标签分类
专知会员服务
5+阅读 · 2022年7月29日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
63+阅读 · 2021年4月11日
ICML 2022 | 探索语言模型的最佳架构和训练方法
PaperWeekly
0+阅读 · 2022年7月5日
RNN | RNN实践指南(2)
KingsGarden
19+阅读 · 2017年5月4日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
14+阅读 · 2022年5月14日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员