Designing convolutional neural networks (CNN) for mobile devices is challenging because mobile models need to be small and fast, yet still accurate. Although significant efforts have been dedicated to design and improve mobile CNNs on all dimensions, it is very difficult to manually balance these trade-offs when there are so many architectural possibilities to consider. In this paper, we propose an automated mobile neural architecture search (MNAS) approach, which explicitly incorporate model latency into the main objective so that the search can identify a model that achieves a good trade-off between accuracy and latency. Unlike previous work, where latency is considered via another, often inaccurate proxy (e.g., FLOPS), our approach directly measures real-world inference latency by executing the model on mobile phones. To further strike the right balance between flexibility and search space size, we propose a novel factorized hierarchical search space that encourages layer diversity throughout the network. Experimental results show that our approach consistently outperforms state-of-the-art mobile CNN models across multiple vision tasks. On the ImageNet classification task, our MnasNet achieves 75.2% top-1 accuracy with 78ms latency on a Pixel phone, which is 1.8x faster than MobileNetV2 [29] with 0.5% higher accuracy and 2.3x faster than NASNet [36] with 1.2% higher accuracy. Our MnasNet also achieves better mAP quality than MobileNets for COCO object detection. Code is at https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet


翻译:移动设备设计同生神经网络(CNN)具有挑战性,因为移动模型需要规模小而快速,但仍然准确。尽管在设计和改进移动CNN所有层面都做出了重大努力,但很难在设计上平衡这些权衡,因为有如此多的建筑可能性需要考虑。在本文件中,我们提议了自动移动神经结构搜索(MNAS)方法,将模型潜伏明确纳入主要目标,以便搜索能够确定一个在准确性和潜伏之间实现良好权衡的模型。与以往的工作不同,即通过另一个往往不准确的代理(例如,FLOPS)来考虑长期运行。尽管我们的方法致力于设计和改进移动CNN,但通过在移动电话执行模型时,直接测量真实世界的推导力。要进一步在灵活性和搜索空间大小之间达成正确的平衡,我们提议了一个新的因子化的等级搜索空间,从而鼓励整个网络的层多样性。实验结果显示,我们的方法在多个愿景任务中始终超越了状态/最先进的移动CNN模型。在图像网络分类任务中,我们的MnasNet目标通过另一个往往是不准确性(如网络/Net)的精确度(如网络/Net)更精确的精确度,在Sliver2x最高精确度上,在Smar5.2OLOP-1的精确度上也比Sildalex)的精确度上达到一个比0.1的精确度为78。

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
重磅!MobileNetV3 来了!
计算机视觉life
4+阅读 · 2019年5月11日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
TResNet: High Performance GPU-Dedicated Architecture
Arxiv
8+阅读 · 2020年3月30日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
相关VIP内容
专知会员服务
60+阅读 · 2020年3月19日
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
重磅!MobileNetV3 来了!
计算机视觉life
4+阅读 · 2019年5月11日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Top
微信扫码咨询专知VIP会员