The connection between training deep neural networks (DNNs) and optimal control theory (OCT) has attracted considerable attention as a principled tool of algorithmic design. Despite few attempts being made, they have been limited to architectures where the layer propagation resembles a Markovian dynamical system. This casts doubts on their flexibility to modern networks that heavily rely on non-Markovian dependencies between layers (e.g. skip connections in residual networks). In this work, we propose a novel dynamic game perspective by viewing each layer as a player in a dynamic game characterized by the DNN itself. Through this lens, different classes of optimizers can be seen as matching different types of Nash equilibria, depending on the implicit information structure of each (p)layer. The resulting method, called Dynamic Game Theoretic Neural Optimizer (DGNOpt), not only generalizes OCT-inspired optimizers to richer network class; it also motivates a new training principle by solving a multi-player cooperative game. DGNOpt shows convergence improvements over existing methods on image classification datasets with residual networks. Our work marries strengths from both OCT and game theory, paving ways to new algorithmic opportunities from robust optimal control and bandit-based optimization.
翻译:培训深神经网络(DNNNS)和最佳控制理论(OCT)之间的联系吸引了相当的注意,这是算法设计的一项原则工具。尽管没有做多少尝试,但是它们仅限于层传播类似于Markovian动态系统的建筑结构。这使人们怀疑它们与高度依赖不同层次之间非马尔科尼依赖的现代网络的灵活性,这些网络在很大程度上依赖不同层次之间的非马尔科尼依赖非马尔科尼依赖(例如,在剩余网络中跳过连接)。在这项工作中,我们提出一个新的动态游戏视角,将每一层看成以DNNNN本身为特点的动态游戏游戏中的玩家,从而提出新的动态游戏视角。通过这个镜头,不同类别的优化器类可以被视为匹配不同种类的Nash 纳什 equilibria,这取决于每个(p)层的隐隐含信息结构。由此形成的方法,称为动态游戏理论神经控制器(DGNOptt),它不仅将OCT激励优化优化优化优化优化优化优化者优化到网络类;它也通过解决多玩人合作游戏来激励新培训原则,鼓励新的培训原则。 DGNOpnnopnopt 显示在与残余网络的图像分类数据设置中现有方法上改进新的方法方面,我们的工作将强的强的强的强力控制力(RANS 游戏) 和制,从OCT) 游戏的强力 游戏 的强 和制,从OCT,从OCT 游戏 的强,从OCT 游戏 和 的 的 的 的 的 和 的 机 机 机 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 和 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制