ICLR 2020 | 快速神经网络自适应技术

2020 年 4 月 2 日 AI科技评论

本文介绍的是ICLR 2020的论文《Fast Neural Network Adaptation via Parameter Remapping and Architecture Search》,文章作者是华中科技大学方杰民。

文 | 方杰民

编 | 丛末

论文链接:https://openreview.net/pdf?id=rklTmyBKPH

代码链接:https://github.com/JaminFong/FNA


1


简介

神经网络在计算机视觉的各个领域都取得了巨大的成功。通常神经网络模型的设计都需要依托于图像分类的任务,比如在ImageNet分类数据集上设计神经网络,再直接把分类任务上设计的网络模型应用到其他任务(比如分割、检测等)的backbone上。然而由于任务的特性不同,所需要的backbone网络设计也不尽相同。人工神经网络结构的设计往往需要经验丰富的工程师花费比较多的精力来进行调整,效率不高。

最近NAS(neural architecture search)方法的兴起极大的促进了神经网络的自动化设计,不少工作尝试在分割、检测的任务上展开网络结构搜索,但是backbone的预训练(pre-training)是一个消耗很大、又不可避免的操作。虽然最近的一些工作证实预训练对于最终精度而言不一定是必须的,但是从头训练需要花费大量的迭代次数来达到同等的精度。

对于NAS算法而言,预训练的问题将更难解决,比如针对backbone的搜索,搜索空间中包含的所有可能的网络可能都面临预训练问题。One-shot/Differentiable的NAS方法虽然能将所有可能的网络集成为一个超网络(super network),但是超网络和最终搜出来的网络依然面临预训练的问题,其对应的计算代价都还是很大的。

ImageNet数据集的预训练已经成为目前众多计算机视觉任务中一个标准的做法,深度学习社区里也有非常多的ImageNet预训练模型。
本文从充分利用这些模型出发,提出了一种快速神经网络自适应的算法,该算法能够将一个手工网络作为种子网络,并将其结构和模型参数都快速适应到新任务(比如分割和检测)上。
整个网络适应过程包含结构层面的适应和参数层面的适应,本文用 Differentiable NAS的方法来完成结构的适应,另外本文提出的参数重映射(parameter remapping)方法作用于两个层面的适应过程,极大的缩减了整个适应过程所需的计算代价。

2


方法


本文提出了一种参数重映射的方法,该方法旨在将种子网络的参数映射到一个新的网络中。 如图2所示,整个映射过程在深度、宽度、卷积核三个层面进行。实际映射过程中,深度层面的映射先开展,宽度和卷积核层面的映射同时进行。
在深度层面上,对应层的参数相映射,新的层的参数来源于种子网络中相同阶段(stage)中的最后一层;在宽度层面上,本文在结构适应过程中允许更小膨胀系数的MobileNetV2卷积模块,对应通道的参数相映射;在卷积核层面上,本文采用了中心映射的方法,当MobileNetV2的3x3卷积核向更大核映射时,大核中心的3x3区域来源于种子网络的卷积核,其余区域赋予0值。
如图1所示,整个适应过程分为三个阶段。
首先,本文先将种子网络进行扩展(Network Expansion),成为一个包含了结构适应阶段所有可能搜索结构的超级网络,这个超级网络亦即搜索空间的一种表示。 然后本文将种子网络的参数用上述描述的参数重映射方法映射到超级网络上,随即在目标任务/数据集上展开基于Differentiable NAS的结构适应阶段。 网络结构搜索产出针对新任务/数据集的目标结构,此时种子网络的参数被再次重映射到目标结构上,随即展开目标任务/数据集上的参数适应过程。 最终得到参数和结构均被适应于目标任务/数据集的目标网络。
整个适应阶段参数重映射被实施两次,种子网络的pre-trained参数得以充分利用,极大的缩减整个适应过程的计算代价。

3


实验

本文选取MobileNetV2(MBV2)作为种子网络,MBV2是一个性能卓越的轻量网络模型,其被广泛用于设计NAS方法的搜索空间。本文在语义分割Cityscapes和目标检测COCO任务上都进行了实验,相比于种子网络MBV2,FNA能以相同或者更小的MAdds取得更高的性能;相比于分割和检测的其他NAS算法,FNA总的计算代价要小很多,最终模型在目标任务上的性能也更强


本文进一步通过消融实验验证了所提出的参数重映射方法在FNA中的重要作用,通过参数重映射,总的计算代价能有效减少,并且最终获得的性能与ImageNet pretrain无异。本文还开展了随机搜索(random search)的实验,也取得了不错的效果, 该实验现象说明FNA其实是一种普适性较强的网络适应机制,其在某种意义上讲是搜索方法无关的。
关于参数重映射的方案,本文也做了一系列探索,并提出更有效的参数重映射方案或可成为将来工作中比较值得探索的一块。
社区中有较多开源的预训练模型,通过FNA可以将网络模型快速适应到新的任务中,实际场景中如果想要将现有模型应用于其他任务,不妨一试FNA的方法来进一步提升性能,其有效利用现有模型的预训练参数来减小所需算力,可为开发者节省不少成本,也给资源受限的开发者进一步研究带来可能。


ICLR 2020 系列论文解读

0、ICLR 2020 会议动态报道
疫情严重,ICLR2020 将举办虚拟会议,非洲首次 AI 国际顶会就此泡汤
疫情影响,ICLR 突然改为线上模式,2020年将成为顶会变革之年吗?


火爆的图机器学习,ICLR 2020上有哪些研究趋势?


1、直播


回放 | 华为诺亚方舟ICLR满分论文:基于强化学习的因果发现



2、Oral
01. Oral | 一种镜像生成式机器翻译模型:MGNMT
02. Oral | 额外高斯先验目标,缓解负多样性无知
03. Oral | 引入额外门控运算,LSTM稍做修改,性能便堪比Transformer-XL
04. Oral | 并行蒙卡树搜索,性能无损,线性加速,勇闯「消消乐」1000关!
05. Oral | 元强化学习迎来一盆冷水: 不比元Q学习好多少
06. Oral | 用群卷积建立深度、等变的胶囊网络
07. Oral | 谷歌推出分布式强化学习框架SEED,性能“完爆”IMPALA,可扩展数千台机器,还很便宜

3、Spotlight
01. Spotlight | 模型参数这么多,泛化能力为什么还能这么强?
02. Spotlight | 公平与精确同样重要!CMU提出学习公平表征方法,实现算法公平

03. Spotlight | 组合泛化能力太差?用深度学习融合组合求解器试试

04. Spotlight | 加速NAS,仅用0.1秒完成搜索

05. Spotlight | 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)


4、Poster

01. Poster | 华为诺亚:巧妙思想,NAS与「对抗」结合,速率提高11倍

02. Poster | 抛开卷积,多头自注意力能够表达任何卷积操作
03. Poster | NAS 太难了,搜索结果堪比随机采样!华为给出 6 条建议
04.  Poster | 清华提 NExT 框架,用「神经元执行树」学习可解释性
05. Poster | 谷歌最新研究:用“复合散度”量化模型合成泛化能力
06. Poster | 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天
07. Poster |  FSNet:利用卷积核概要进行深度卷积神经网络的压缩
08. Poster | "同步平均教学"框架为无监督学习提供更鲁棒的伪标签




阅读原文,直达 “ICLR 2020" 专题
登录查看更多
0

相关内容

最新《多任务学习》综述,39页pdf
专知会员服务
264+阅读 · 2020年7月10日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
还在修改博士论文?这份《博士论文写作技巧》为你指南
基于深度神经网络的少样本学习综述
专知会员服务
171+阅读 · 2020年4月22日
专知会员服务
44+阅读 · 2020年3月6日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
47+阅读 · 2019年2月1日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
ICLR 2018十佳论文
论智
5+阅读 · 2017年12月4日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
5+阅读 · 2018年9月11日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
最新《多任务学习》综述,39页pdf
专知会员服务
264+阅读 · 2020年7月10日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
还在修改博士论文?这份《博士论文写作技巧》为你指南
基于深度神经网络的少样本学习综述
专知会员服务
171+阅读 · 2020年4月22日
专知会员服务
44+阅读 · 2020年3月6日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
相关资讯
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
47+阅读 · 2019年2月1日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
ICLR 2018十佳论文
论智
5+阅读 · 2017年12月4日
相关论文
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
5+阅读 · 2018年9月11日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员