The connection between training deep neural networks (DNNs) and optimal control theory (OCT) has attracted considerable attention as a principled tool of algorithmic design. Despite few attempts being made, they have been limited to architectures where the layer propagation resembles a Markovian dynamical system. This casts doubts on their flexibility to modern networks that heavily rely on non-Markovian dependencies between layers (e.g. skip connections in residual networks). In this work, we propose a novel dynamic game perspective by viewing each layer as a player in a dynamic game characterized by the DNN itself. Through this lens, different classes of optimizers can be seen as matching different types of Nash equilibria, depending on the implicit information structure of each (p)layer. The resulting method, called Dynamic Game Theoretic Neural Optimizer (DGNOpt), not only generalizes OCT-inspired optimizers to richer network class; it also motivates a new training principle by solving a multi-player cooperative game. DGNOpt shows convergence improvements over existing methods on image classification datasets with residual networks. Our work marries strengths from both OCT and game theory, paving ways to new algorithmic opportunities from robust optimal control and bandit-based optimization.


翻译:培训深神经网络(DNNNS)和最佳控制理论(OCT)之间的联系吸引了相当的注意,这是算法设计的一项原则工具。尽管没有做多少尝试,但是它们仅限于层传播类似于Markovian动态系统的建筑结构。这使人们怀疑它们与高度依赖不同层次之间非马尔科尼依赖的现代网络的灵活性,这些网络在很大程度上依赖不同层次之间的非马尔科尼依赖非马尔科尼依赖(例如,在剩余网络中跳过连接)。在这项工作中,我们提出一个新的动态游戏视角,将每一层看成以DNNNN本身为特点的动态游戏游戏中的玩家,从而提出新的动态游戏视角。通过这个镜头,不同类别的优化器类可以被视为匹配不同种类的Nash 纳什 equilibria,这取决于每个(p)层的隐隐含信息结构。由此形成的方法,称为动态游戏理论神经控制器(DGNOptt),它不仅将OCT激励优化优化优化优化优化优化优化者优化到网络类;它也通过解决多玩人合作游戏来激励新培训原则,鼓励新的培训原则。 DGNOpnnopnopt 显示在与残余网络的图像分类数据设置中现有方法上改进新的方法方面,我们的工作将强的强的强的强力控制力(RANS 游戏) 和制,从OCT) 游戏的强力 游戏 的强 和制,从OCT,从OCT 游戏 的强,从OCT 游戏 和 的 的 的 的 的 和 的 机 机 机 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 和 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
110+阅读 · 2020年5月15日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
7+阅读 · 2020年6月29日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员