论文名称:DDPNOpt: Differential Dynamic Programming Neural Optimizer

论文链接:

https://www.zhuanzhi.ai/paper/9bd4fb54c41540ebb674f12141d91f37

作者:Guan-Horng Liu、Tianrong Chen、Evangelos Theodorou

推荐理由:将深度神经网络(Deep Neural Networks,DNNs)训练解释为一个非线性动态系统的最优控制问题,近来受到了相当大的关注。

在这项工作中,作者沿着这一思路进行了尝试,从轨迹优化的角度对训练过程进行了重构。在该工作中,大多数广泛使用的DNNs训练算法都可以与微分动态编程(Differential Dynamic Programming,DDP)联系起来,DDP是一种根植于近似动态编程的著名二阶方法。

为此,作者提出了一类新的优化器,即DDP神经优化器(DDP Neural Optimizer,DDPNOpt),用于训练前馈和卷积网络。

DDPNOpt的特点是层间反馈策略,与现有的方法相比,它可以提高收敛性并降低对超参数的敏感性。它在收敛性和复杂度上都优于其他最优控制启发的训练方法,并且与最先进的一阶和二阶方法相比具有竞争力。该工作还观察到DDPNOpt在防止梯度消失方面有惊人的优势。

该工作为建立在最优控制理论基础上的原则性算法设计开辟了新的途径。

图片

成为VIP会员查看完整内容
16

相关内容

【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
20+阅读 · 2020年12月9日
注意力图神经网络的小样本学习
专知会员服务
192+阅读 · 2020年7月16日
面试题:人工神经网络中为什么ReLu要好过于tanh和sigmoid?
七月在线实验室
6+阅读 · 2019年6月11日
【学科发展报告】自适应动态规划
中国自动化学会
24+阅读 · 2018年9月14日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关VIP内容
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
20+阅读 · 2020年12月9日
注意力图神经网络的小样本学习
专知会员服务
192+阅读 · 2020年7月16日
相关资讯
面试题:人工神经网络中为什么ReLu要好过于tanh和sigmoid?
七月在线实验室
6+阅读 · 2019年6月11日
【学科发展报告】自适应动态规划
中国自动化学会
24+阅读 · 2018年9月14日
微信扫码咨询专知VIP会员