CVPR2019:好的模型,迁移学习效果就更好吗?Google Brain最新结论

2019 年 6 月 12 日 极市平台

极市正在推出CVPR2019的专题直播分享会邀请CVPR2019的论文作者进行线上直播,分享优秀的科研工作和技术干货,也欢迎各位小伙伴自荐或推荐优秀的CVPR论文作者到极市进行技术分享~

本周四(6月13日)晚,浙江大学硕士研究生董峻廷,将为我们分享:多视角下多人三维姿态估计(CVPR2019,已开源,公众号回复“44”即可获取直播详情。


来源:David 9的博客

已获作者授权,请勿二次转载


特征工程的下一步可能是如何直接操控特征(同域或不同域),而不仅仅是特征选择或特征过滤。——David9


相信很多初学迁移学习的朋友心里一直有个疑问:迁移学习的模型真的对新应用效果也好吗?更好的迁移模型,在其他应用上表现效果也更好吗?


根据Google Brain在CVPR 2019的研究总结,今天David偷懒一次,只说结论:


答案很大程度上是肯定的!Google Brain的大量实验证明,无论是把神经网络倒数第二层直接拿出来做预测,还是把预训练模型对新应用进行“二次训练”,好的imagenet预训练模型普遍有更好的迁移学习效果:


来自:《Do Better ImageNet Models Transfer Better?》

如上,左图是直接把网络倒数第二层特征直接拿出来进行迁移学习(使用Logistic Regression),右图是在新应用上find-tuned的迁移学习表现。可以注意到,只要是模型本来表现就好(横左标),迁移的效果就更好(纵坐标)。从性能最差的MobileNet到性能最好的Inception-ResNet无一例外。


但是,迁移学习并不是就无敌了。文章指出,在迁移学习中一定要慎用正则化,正则方法如 (Dropout, Label Smooth) 用得越少,直接把倒数第二层特征迁移后,效果就越好:


来自:《Do Better ImageNet Models Transfer Better?》

上图从左到右顺着横坐标,是在模型中去掉一些正则化方法的迁移效果,其中“+”号是模型中使用的方法,“-”号是模型中未使用的方法。因为BN(batch norm)不是正则化方法,不会影响迁移学习效果。Dropout就是一种后期的正则化处理,这种操作是对迁移学习有影响的。


而如果你一定要使用正则化方法,并且要对模型做迁移,建议还是需要(用新数据)fine-tune一下迁移模型,这样对迁移效果影响较小:


来自:《Do Better ImageNet Models Transfer Better?》

另外,并不是所有迁移学习都能达到显著效果:


来自:《Do Better ImageNet Models Transfer Better?》

文章指出,对于find-grained分类数据集(大类中含小类,小类中还能分类),如果数据量小的话,迁移学习确实有用,而如果数据量非常大,从头开始训练和迁移学习最后的效果差别不大。如上图,每个点是模型在一个数据集上迁移学习和从头训练的准确率。

 

参考文献:

  • Do Better ImageNet Models Transfer Better?

    https://arxiv.org/abs/1805.08974


  • http://www.cs.umd.edu/~djacobs/CMSC733/FineGrainedClassification.pdf


本文采用署名 – 非商业性使用 – 禁止演绎 3.0 中国大陆许可协议进行许可。著作权属于“David 9的博客”原创,如需转载,请联系邮箱:yanchao727@gmail.com


原文:

http://nooverfit.com/wp/cvpr2019%e5%a5%bd%e7%9a%84%e6%a8%a1%e5%9e%8b%ef%bc%8c%e8%bf%81%e7%a7%bb%e5%ad%a6%e4%b9%a0%e6%95%88%e6%9e%9c%e5%b0%b1%e6%9b%b4%e5%a5%bd%e5%90%97%ef%bc%9fgoogle-brain%e6%9c%80%e6%96%b0%e7%bb%93/?from=timeline&isappinstalled=0





*延伸阅读



点击左下角阅读原文”,即可申请加入极市目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群,更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流,一起来让思想之光照的更远吧~



觉得有用麻烦给个在看啦~  

登录查看更多
4

相关内容

[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
【教程】自然语言处理中的迁移学习原理,41 页PPT
专知会员服务
95+阅读 · 2020年2月8日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
带你读论文丨 8 篇论文梳理 BERT 相关模型
新智元
9+阅读 · 2019年9月9日
CVPR2019 | 专门为卷积神经网络设计的训练方法:RePr
人工智能前沿讲习班
6+阅读 · 2019年3月7日
2018年自然语言取得不错的研究有哪些?
人工智能前沿讲习班
4+阅读 · 2019年2月22日
预训练模型迁移学习
极市平台
11+阅读 · 2018年11月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
使用迁移学习做动物脸部识别
极市平台
7+阅读 · 2018年1月8日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
极市分享|王晋东 迁移学习中的领域自适应方法
极市平台
10+阅读 · 2017年12月11日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
相关资讯
带你读论文丨 8 篇论文梳理 BERT 相关模型
新智元
9+阅读 · 2019年9月9日
CVPR2019 | 专门为卷积神经网络设计的训练方法:RePr
人工智能前沿讲习班
6+阅读 · 2019年3月7日
2018年自然语言取得不错的研究有哪些?
人工智能前沿讲习班
4+阅读 · 2019年2月22日
预训练模型迁移学习
极市平台
11+阅读 · 2018年11月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
使用迁移学习做动物脸部识别
极市平台
7+阅读 · 2018年1月8日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
极市分享|王晋东 迁移学习中的领域自适应方法
极市平台
10+阅读 · 2017年12月11日
相关论文
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
3+阅读 · 2018年4月10日
Top
微信扫码咨询专知VIP会员