DARTS:年轻人的第一个NAS模型

2020 年 11 月 28 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨薰风初入弦@知乎
来源丨https://zhuanlan.zhihu.com/p/156832334
编辑丨极市平台

极市导读

 

Darts 是用于构建双数组 Double-Array的简单的 C++ Template Library。DARTS做到了大幅提升搜索算法的速度,本文作者结合论文详细解释了DARTS的相关基础概念及解释,并简述一些自己的关于假设以及发展方向的思考。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

1. 薰风说

DARTS是第一个提出基于松弛连续化的,使用梯度下降进行搜索的神经网络架构搜索(neural architecture search, NAS)算法,将最早矿佬们(说的就是你Google)花成千上万个GPU-hour(即用一块卡跑一小时)的搜索算法降低到了一块卡四天就能跑完。这使得我们这种穷苦的实验室也有了研究NAS这个酷炫方法的可能,不愧是年轻人的第一个NAS模型哈哈哈。


DARTS最大的贡献在于使用了Softmax对本来离散的搜索空间进行了连续化,并用类似于元学习中MAMAL的梯度近似,使得只在一个超网络上就可以完成整个模型的搜索,无需反复训练多个模型。(当然,之后基于演化算法和强化学习的NAS方法也迅速地借鉴了超网络这一特性)。


而实际上,DART还有个更大的贡献就是开源了。不过源代码是基于Pytorch 0.3写的,和主流的1.x版本差别很大,所以需要一段时间进行重新复现。我现在写了1.4版本的分布式并行搜索代码,等后续可视化和保存模型都摸熟了会发实现的教程(在做了在做了)。


除此之外,DARTS虽然想法十分优雅,但我个人觉得其在假设上有不少值得推敲的地方。在略读了CVPR2020里有关NAS的20篇论文后,的确很多工作都是针对我觉得很“有趣”的假设做的233。之后,我也会持续更新CVPR2020中NAS有关的论文,尤其是基于梯度下降方法的。


2. 正文开始

DARTS通过以可微分的方式描述任务来解决架构搜索的可扩展性挑战。
与传统的在离散的、不可微的搜索空间上应用进化或强化学习的方法不同(这些方法需要再一堆离散的候选网络中间搜索),我们的方法基于连续松弛的结构表示,允许在验证集上使用梯度下降对结构进行高效搜索。

DARTS在大搜索空间中搜索有复杂拓扑结构的高效架构cell,而过去使用梯度下降更多是找滤波器形状,分支方式之类的低维超参数。

2.1 概念介绍与符号声明

上图为DARTS的算法示意图。首先,这里的搜索空间(对CNN而言)是一个组成模型的Cell,其可以被描述成一个有   个节点的有向无环图。在这个有向无环图中,有节点   和边   ,其中
  • 节点  是第   个特征图
  • 是从第   个特征图到第   个特征图之间的变换(如卷积、池化)

而每个中间节点(特征图)都是由有向无环图中所有的前继节点计算得来的,即:

此外,所有的边(操作)都是在一个候选操作集   中选取出来的。
在CNN的DARTS中,可选的操作集合为:3×3深度可分离卷积,5×5深度可分离卷积,3×3空洞深度可分离卷积,5×5空洞深度可分离卷积,3×3极大值池化,3×3均值池化,恒等,0操作(两个节点直接无连接)

2.2 连续松弛化

在传统的方法中,为了在候选操作集   中寻找最好的操作,都是使用强化学习或者演化算法等启发式算法取某个操作,也就是说这种选择是非此即彼的离散操作

离散的操作不好求导,所以需要引入连续松弛化这个概念。具体地,实际上在搜索过程中,操作集的每个操作都会处理每个节点的特征图。之后,再对所有所有操作得到的结果加权求和,即
可以看到这里引入了新的符号   ,其含义为:第   个特征图到第   个特征图之间的操作   的权重。这也是我们之后需要搜索的架构参数

举个例子,如果这个操作的权重   ,那么就可以认为我们完全不需要这个操作。

而为了保证所有节点的输出大致稳定,我们要对每两个节点之间的架构参数(即操作的权重)进行Softmax操作,即   。
可以看到,如果每个操作的权重确定,那么最终的网络架构也随之确定,因此我们后续可以称   为网络架构(的编码)本身。

2.3 两级最优化

和之前基于强化学习方法的奖励函数,或者基于演化算法的种群适应性一样。DARTS的优化目标也是在验证集上的损失函数(只不过DARTS直接用梯度下降优化)。

这里令训练损失和验证损失分别为   和   。网络中操作的的权重为   ,有 * 上标则说明其为最优的。因此,我们其实希望找到的是一个能在训练集训练好之后(最优权重   ),在验证集上损失最小的架构(   )。

这里就有个问题,每次我们判断架构好不好的之前,首先他要先在训练集上收敛,即   。而最优的权重本身必然是和架构对应的,架构变化,对应的权重也会跟着变化。

把上面这个过程用数学语言描述,就是以架构   为上级变量,权重   为下级变量的两级最优化问题:

但是,实际上这种问题看起来复杂,却在元学习领域十分常见。尤其是基于梯度下降的超参数优化问题(比如著名的MAMAL)。所以,你也可以把这个问题看成元学习问题,而架构参数本身也是超参数,只不过这个超参数维度高的有点点离谱233...

2.4 近似梯度

之前也提到过,DARTS对架构参数的更新方法实际上是在验证集上对架构参数做梯度下降。

但是这又有个问题,那就是由二级最优化的定义,每次更新架构参数都理应重新训练模型的权重,但这显然是不可接受的(因为太慢了……)。DARTS算法实际上在验证集上的搜索过程中,权重是不会变的,这就需要某种梯度近似的方法。这里先给出作者提出的(二阶)梯度近似(其中   是权重的学习率)
这种近似在架构于训练集上达到局部极值点(   )时,   。

也就是说,这种近似实际上是用   (训练集上对权重执行一次梯度下降)来近似最优权重   。

用人话来讲,实际上就是交替进行以下两步:
  1. 在验证集损失上梯度下降更新架构参数
  2. 在训练集损失上梯度下降更新操作权重
类似的方法在元学习(MAMAL)、基于梯度的超参数调整与避免GAN崩溃(unrolled GAN)中都能看到。

那么这个近似梯度究竟需要如何求解呢?
PS:以下流程很大程度上参考了浙大李斌大佬的专栏(羡慕一波数学功底),也推荐配合食用。

李斌:【论文笔记】DARTS公式推导

https://zhuanlan.zhihu.com/p/73037439

首先,上面这个近似的梯度涉及了二元复合函数,因此对其求导需要用到链式法则。为了简单可以先将   记为   ,其中:
现在对这个复合函数求导
其中(   ):
  •  (复合函数对第一项的偏微分)
  •  (复合函数对第二项的偏微分)
带入并整理,我们可得到具体可求的梯度:

为啥说是具体可求呢,因为在上式第二行的结果中   变成了一个常数,而不是之前一个变量为架构参数   的复合函数!

但是,这个梯度的第二项依然十分麻烦,因为对两个变量(权重和架构参数)的二阶梯度以及权重的梯度求解涉及到很麻烦的向量-矩阵乘积。

因此作者提出使用有限差分近似来求解,具体地,设有一小标量   (经验中取   )。
其中 

这个具体是怎么做到的呢,答案是——泰勒展开(说到底都是本科知识,但就是想不起来)
现在我们用   来替代   ,则有
将上面两个式子相减,可以得到
之后,用   替代   , 再把   换成   ,还有把   换成   ,最后把   换成   ,就是有限差分近似的结果啦~

实际上这种有限差分近似只需要对梯度进行两次前向传播,以及对架构进行两次反向传播。其计算复杂度也会从   降至 

最后,如果你觉得这个有限差分近似依然很烦,你w可以直接把第二项扔掉,即只保留   。这种操作等价于假设当前的权重   就是最优权重   ,此时梯度将退化为一阶近似
一阶近似的速度更快,但最后的效果没有二阶近似好。

2.5 生成最优模型

假设通过之前说的这些流程,架构参数已经训练的挺不错了。那么,接下来就要提取真正的模型了,因为直至目前,架构依然是计算了所有的操作,而所有操作依然是连续组合而不是离散的。但是,和分类问题一样,我们可以取出每条边上权重最大的 $$k$$ 个操作(在CNN中DARTS取2个最大的操作,并忽略0操作)。


3. 思考

实际上,如果从本文作者的角度看DARTS,我能发现有以下假设是值得注意的,从CVPR2020的paper看,这些也是被后来者当靶子的点。(当然,我要是真的能做出这个档次的工作,我做梦都会笑醒……)

3.1 "有趣"的假设

  1. CNN可以由相同的Cell堆叠得到,RNN可以由相同的Cell递归连接得到
  2. 每个Cell有两个输入节点和一个输出节点组成,对于CNN来说输入节点是前两个Cell的输出(the cell outputs of the in the previous two layers)
  3. 每个Cell的输出实际上是对所有中间节点作reduction操作(比如concatenate)得到的
  4. 在验证集上效果最好的模型,在测试集上效果也最好
  5. 作者并没有证明这个梯度近似的收敛性,所以直接拿来用了hhh
  6. 作者将每个Cell的每个节点之间都取前2个最大权重的操作,(作者的理由是别人都是这么做的)
  7. 作者忽略了定义在搜索空间中的0操作(因为作者认为0操作在搜索过程中不会改变运算的结果)
  8. 在小模型搜到的Cell在大模型上也会很好用,因此无需重新搜索。
  9. Reduction Cell 和 Normal Cell的搜索空间是一样的,且全都是深度可分离卷积,都有池化层。
假设2和6 Follow了谷歌大脑18年CVPR的论文Learning Transferable Architectures for Scalable Image Recognition。不过这篇论文中取的两个输入具体是之前哪两个cell实际上是不固定的,而Darts则固定只取前两个(存疑)

3.2 作者给出的下一步方向

连续体系结构编码和派生离散模型之间存在差异,所以最好让引入类似有退火阈值的01编码。

在搜索工程中学到的共享参数是否可以用于设计一个性能可感知(performance aware)的架构派生机制。


推荐阅读



    添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

    △长按添加极市小助手

    △长按关注极市平台,获取 最新CV干货

    觉得有用麻烦给个在看啦~   
    登录查看更多
    0

    相关内容

    最新《神经架构搜索NAS》报告,附46页ppt与视频
    专知会员服务
    34+阅读 · 2020年12月30日
    最新《神经架构搜索NAS》教程,33页pdf
    专知会员服务
    26+阅读 · 2020年12月2日
    【NeurIPS 2020 】神经网络结构生成优化
    专知会员服务
    20+阅读 · 2020年10月24日
    《神经架构搜索NAS》最新进展综述
    专知会员服务
    54+阅读 · 2020年8月12日
    【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
    【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
    专知会员服务
    25+阅读 · 2020年5月7日
    NAS发展史:从放弃到入门
    极市平台
    20+阅读 · 2019年8月31日
    深度解读:小米AI实验室AutoML团队最新成果FairNAS
    PaperWeekly
    32+阅读 · 2019年7月11日
    精选论文 | 网络结构搜索-单目标跟踪【附打包下载】
    人工智能前沿讲习班
    3+阅读 · 2019年7月2日
    干货 | 让算法解放算法工程师——NAS 综述
    极市平台
    16+阅读 · 2019年6月20日
    神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
    Geometric Graph Convolutional Neural Networks
    Arxiv
    10+阅读 · 2019年9月11日
    Hierarchical Deep Multiagent Reinforcement Learning
    Arxiv
    8+阅读 · 2018年9月25日
    Arxiv
    3+阅读 · 2018年6月24日
    Arxiv
    6+阅读 · 2018年3月27日
    VIP会员
    相关VIP内容
    最新《神经架构搜索NAS》报告,附46页ppt与视频
    专知会员服务
    34+阅读 · 2020年12月30日
    最新《神经架构搜索NAS》教程,33页pdf
    专知会员服务
    26+阅读 · 2020年12月2日
    【NeurIPS 2020 】神经网络结构生成优化
    专知会员服务
    20+阅读 · 2020年10月24日
    《神经架构搜索NAS》最新进展综述
    专知会员服务
    54+阅读 · 2020年8月12日
    【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
    【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
    专知会员服务
    25+阅读 · 2020年5月7日
    Top
    微信扫码咨询专知VIP会员