解读谷歌NASNet:一个大规模图像识别架构!(附论文)

2018 年 1 月 20 日 全球人工智能

-欢迎加入AI技术专家社群>>

- 日薪5K-10K招兼职AI讲师>>

导读:谷歌推出的NASNet架构,用于大规模图像分类和识别。NASNet架构特点是由两个AutoML设计的Layer组成——Normal Layer and Reduction Layer,这样的效果是不再需要相关专家用human knowledge来搭建卷积网络架构,直接用RNN把Hyperparameter计算出来,这样就实现了AI自动学习。


我们之前推出了 AutoML 项目,这是一种实现机器学习模型设计自动化的方式。尽管AutoML 能够设计出性能可与人类专家设计的神经网络相媲美的小型神经网络,但仍被限制在 CIFAR-10 和 Penn Treebank 一类的小型学术数据集方面。我们对这种方法在更大、更具挑战性的数据集(例如 ImageNet 图像分类和 COCO 对象检测)上的表现充满好奇。

学习可转移的架构来实现可扩展的图像识别 (Learning Transferable Architectures for Scalable Image Recognition) 论文中,我们将 AutoML 应用到 ImageNet 图像分类和 COCO 对象检测数据集中 - ImageNet 和 COCO 是计算机视觉领域两个最受认可的大规模学术数据集。这两个数据集对我们来说是一项非常大的挑战,因为它们要比 CIFAR-10 和 Penn Treebank 数据集大许多数量级。例如,单单将 AutoML 直接应用到 ImageNet 中就需要对我们的方法进行数月的训练。

为了应用到 ImageNet,我们对 AutoML 做了两点调整,让它可以更容易地处理大规模数据集:

  • 重新设计了搜索空间,以便 AutoML 找到最佳层并灵活进行多次堆叠来创建最终网络。

  • 在 CIFAR-10 上执行了架构搜索,并将学到的最好架构转移到 ImageNet 图像分类和 COCO 对象检测中。

通过这种方法,AutoML 能够找到在 CIFAR-10 以及 ImageNet 分类和 COCO 对象检测上都有优异表现的最佳层。这两个层组合形成一种新的架构,我们称之为“NASNet”。

我们的 NASNet 架构由两种类型的层组成:正常层(左)和还原层(右)。这两种层都由 AutoML 设计。


在 ImageNet 图像分类上,NASNet 在验证集上的预测准确率达到了 82.7%,超过了之前构建的所有 Inception 模型 [2, 3, 4]。此外,NASNet 的准确率比之前公布的所有结果提升了 1.2%。NASNet 还可以调整规模,生成一系列可以实现较高准确率的模型,同时将计算开销控制在非常低的水平。例如,小版本的 NASNet 可以实现 74% 的准确率,比面向移动平台的同等规模最先进模型提升了 3.1%。大型 NASNet 则可实现最高的准确率,同时将 arxiv.org 上最佳报告结果(即 SENet)的计算开销减半 [5]。


NASNet 与人类发明的各种规模的最先进模型在 ImageNet 图像分类中的准确率。


可将学到的特征从 ImageNet 转移到对象检测。实验中,将在 ImageNet 分类中学到的特征与 Faster-RCNN 框架 [6] 相结合超过了 COCO 对象检测任务之前公布的最佳预测性能,无论检测任务在最大的模型上执行,还是在针对移动设备优化的模型上执行,结果都是如此。最大的模型的平均准确率 (mAP) 达到了 43.1%,比之前公布的最佳结果提升了 4%。

结合使用 Faster-RCNN 和 NASNet 的示例对象检测。


论文:https://arxiv.org/pdf/1707.07012.pdf

扫描图中二维码,报名加入学习

点击“阅读原文”,查看详情

登录查看更多
9

相关内容

专知会员服务
73+阅读 · 2020年5月21日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
专知会员服务
60+阅读 · 2020年3月19日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
李飞飞等人提出Auto-DeepLab:自动搜索图像语义分割架构
全球人工智能
5+阅读 · 2019年1月14日
资源 | 谷歌开源AdaNet:基于TensorFlow的AutoML框架
极市平台
4+阅读 · 2018年11月1日
谷歌放大招!数据增强实现自动化
新智元
8+阅读 · 2018年6月4日
利用 AutoML 进行大规模图像分类和对象检测
谷歌开发者
6+阅读 · 2017年11月27日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
4+阅读 · 2017年11月14日
VIP会员
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
4+阅读 · 2017年11月14日
Top
微信扫码咨询专知VIP会员