题目: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

摘要:

卷积神经网络(ConvNets)通常是在固定的资源预算下开发的,如果有更多的资源可用,则会进行扩展以获得更高的精度。在这篇论文中,我们系统地研究了模型缩放,并发现仔细平衡网络的深度、宽度和分辨率可以获得更好的性能。基于这一观察结果,我们提出了一种新的标度方法,使用简单而高效的复合系数来均匀地标度深度/宽度/分辨率的所有维度。我们证明了该方法在扩展MobileNets和ResNet方面的有效性。为了更进一步,我们使用神经结构搜索来设计一个新的基线网络,并将其扩展以获得一系列被称为EfficientNets的模型,这些模型比以前的ConvNets获得了更好的准确性和效率。特别是,我们的EfficientNet-B7在ImageNet上达到了最先进的84.4% top-1 / 97.1% top-5的精度,同时比现有最好的ConvNet小8.4倍,推理速度快6.1倍。我们的效率网在CIFAR-100(91.7%)、Flowers(98.8%)和其他3个传输学习数据集上传输良好,并且达到了最先进的精度,参数少了一个数量级。

作者:

Quoc V. Le目前是谷歌研究科学家,斯坦福大学计算机科学系人工智能实验室博士生。研究领域是机器学习和人工智能。个人官网:https://cs.stanford.edu/~quocle/

成为VIP会员查看完整内容
16

相关内容

[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
谷歌EfficientNet缩放模型,PyTorch实现登热榜
机器学习算法与Python学习
11+阅读 · 2019年6月4日
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
解读谷歌NASNet:一个大规模图像识别架构!(附论文)
全球人工智能
9+阅读 · 2018年1月20日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Arxiv
3+阅读 · 2018年6月1日
Arxiv
4+阅读 · 2017年7月25日
VIP会员
相关VIP内容
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
微信扫码咨询专知VIP会员