学界 | 神经优化器搜索:利用强化学习自动搜索最优化方法

2017 年 9 月 2 日 机器之心

选自arXiv

机器之心编译

参与:路雪


本论文通过强化学习的方式采样不同的更新规则而得出更加优秀的优化方法,这些不同的优化规则通过采样的概率和其在子网络的性能而得出该规则的重要性。本文提出的这种优化方法可以移植到不同的神经网络架构中,并有十分优秀的性能。机器之心对该论文进行了简要地介绍。



论文地址:http://proceedings.mlr.press/v70/bello17a/bello17a.pdf


我们提出了一种可自动探索优化算法的方法,该方法重点关注深度学习架构。我们训练了一个循环神经网络控制器生成特定域语言(domain language)中的字符串,该语言描述一系列基于原函数(比如梯度及其运行平均数(running average)等)的数学更新方程。控制器通过强化学习进行训练以在若干个 epoch 之后最大化模型的性能。在 CIFAR-10 中,我们的方法发现了一些更新规则优于许多常用的优化器,比如 Adam、RMSProp,或在卷积网络模型中带有和不带有动量的优化器。这些优化器也可以转移到不同的神经网络架构,并非常优秀地执行,包括谷歌的神经机器翻译系统。


图 1. 神经优化器搜索(Neural Optimizer Search)概览。


图 2. 一些常用优化器(如 SGD、RMSProp、Adam)的计算图。这里,我们展示了 Adam 在第一步和第二步的计算过程。蓝色框代表输入基元(input primitive)或临时输出(temporary output),黄色框代表一元函数,灰色框代表二元函数。g 代表梯度, 代表梯度的偏差修正估计, 代表二阶梯度的偏差修正估计。


图 3. 控制器 RNN 概览。控制器可以迭代选择 length 5 的子序列:首先选择第 1 和第 2 个操作数 op1 和 op2,然后将两个一元函数 u1 和 u2 应用到两个操作数(operand)上,最后二元函数 b 连接一元函数的输出。然后 b(u1(op1); u2(op2)) 成为可在后续组预测中作为操作数,或者成为更新规则。每一个预测都由最后的 softmax 分类器得出,然后作为下一个时间步的输入。


图 4. 随着采样优化器不断增加,控制器奖励也随着时间不断上升。


图 5. 神经优化器搜索(Neural Optimizer Search)中两个最好的优化器间的对比,它们都使用双层卷积网络架构。优化器 1 指 ,优化器 2 指 


图 6. 神经网络优化器搜索中的一个优化器和 Rosenbrock 函数上著名的优化器之间的对比。优化器 1 指。黑点代表最佳结果。


图 7. 神经优化器搜索中两个最好的优化器间的对比,它们使用 Wide ResNet 架构。优化器 1 指 ,优化器 2 指


表 1. 神经网络优化器搜索和 Wide-ResNet 架构上的标准优化器在 CIFAR-10 上的性能对比。Final Val 和 Final Test 指在 300 个 epoch 上训练之后的最终验证和测试准确度。Best Val 指在 300 个 epoch 上的最佳验证准确度,Best Test 指验证准确度最高的 epoch 上的测试准确度。对于每一个优化器,我们根据验证准确度报告 7 个学习率在对数尺度上的最佳结果。


表 2. 我们的优化器与强大的基线 GNMT 模型中的优化器 ADAM 在 WMT 2014 英语转德语翻译任务上的性能对比。



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

登录查看更多
1

相关内容

【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
44+阅读 · 2020年5月23日
专知会员服务
73+阅读 · 2020年5月21日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
203+阅读 · 2020年1月13日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
一文了解采样方法
AI100
5+阅读 · 2018年7月6日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
4+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
4+阅读 · 2017年7月25日
Arxiv
4+阅读 · 2015年8月25日
VIP会员
相关资讯
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
一文了解采样方法
AI100
5+阅读 · 2018年7月6日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
相关论文
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
4+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
4+阅读 · 2017年7月25日
Arxiv
4+阅读 · 2015年8月25日
Top
微信扫码咨询专知VIP会员