论文名称:DDPNOpt: Differential Dynamic Programming Neural Optimizer

论文链接:

https://www.zhuanzhi.ai/paper/9bd4fb54c41540ebb674f12141d91f37

作者:Guan-Horng Liu、Tianrong Chen、Evangelos Theodorou

推荐理由:将深度神经网络(Deep Neural Networks,DNNs)训练解释为一个非线性动态系统的最优控制问题,近来受到了相当大的关注。

在这项工作中,作者沿着这一思路进行了尝试,从轨迹优化的角度对训练过程进行了重构。在该工作中,大多数广泛使用的DNNs训练算法都可以与微分动态编程(Differential Dynamic Programming,DDP)联系起来,DDP是一种根植于近似动态编程的著名二阶方法。

为此,作者提出了一类新的优化器,即DDP神经优化器(DDP Neural Optimizer,DDPNOpt),用于训练前馈和卷积网络。

DDPNOpt的特点是层间反馈策略,与现有的方法相比,它可以提高收敛性并降低对超参数的敏感性。它在收敛性和复杂度上都优于其他最优控制启发的训练方法,并且与最先进的一阶和二阶方法相比具有竞争力。该工作还观察到DDPNOpt在防止梯度消失方面有惊人的优势。

该工作为建立在最优控制理论基础上的原则性算法设计开辟了新的途径。

图片

成为VIP会员查看完整内容
15

相关内容

专知会员服务
37+阅读 · 2021年4月25日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
19+阅读 · 2020年12月9日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
论文浅尝 - ICLR2020 | 通过神经逻辑归纳学习有效地解释
开放知识图谱
5+阅读 · 2020年6月17日
面试题:人工神经网络中为什么ReLu要好过于tanh和sigmoid?
七月在线实验室
5+阅读 · 2019年6月11日
【学界】李沐等将目标检测绝对精度提升 4%,不牺牲推理速度
GAN生成式对抗网络
7+阅读 · 2019年2月15日
【学科发展报告】自适应动态规划
中国自动化学会
24+阅读 · 2018年9月14日
基于反向传播NEAT算法的神经网络演化
论智
6+阅读 · 2018年1月3日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2021年4月25日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
19+阅读 · 2020年12月9日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【KDD2020】最小方差采样用于图神经网络的快速训练
专知会员服务
27+阅读 · 2020年7月13日
微信扫码咨询专知VIP会员