Implicit-depth models such as Deep Equilibrium Networks have recently been shown to match or exceed the performance of traditional deep networks while being much more memory efficient. However, these models suffer from unstable convergence to a solution and lack guarantees that a solution exists. On the other hand, Neural ODEs, another class of implicit-depth models, do guarantee existence of a unique solution but perform poorly compared with traditional networks. In this paper, we develop a new class of implicit-depth model based on the theory of monotone operators, the Monotone Operator Equilibrium Network (monDEQ). We show the close connection between finding the equilibrium point of an implicit network and solving a form of monotone operator splitting problem, which admits efficient solvers with guaranteed, stable convergence. We then develop a parameterization of the network which ensures that all operators remain monotone, which guarantees the existence of a unique equilibrium point. Finally, we show how to instantiate several versions of these models, and implement the resulting iterative solvers, for structured linear operators such as multi-scale convolutions. The resulting models vastly outperform the Neural ODE-based models while also being more computationally efficient. Code is available at http://github.com/locuslab/monotone_op_net.


翻译:深平衡网络等隐含深度模型最近被证明与传统深网络的性能相匹配或超过,而其记忆效率则更高。然而,这些模型存在不稳定的趋同,缺乏解决方案存在保障。另一方面,另一类隐含深度模型神经内分解器(Neural ODEs)确实保障存在一个独特的解决方案,但与传统网络相比却表现不佳。在本文件中,我们根据单体操作器理论,即单体操作器电子平衡网络(monDEQ),开发了一种新的隐含深度模型。我们展示了在找到一个隐性网络的平衡点与解决单一操作器分裂问题之间,以及解决一种单一操作器分解问题的形式之间的密切联系,后者承认了高效的求同器,且稳定地趋同。然后我们开发了网络的参数化,以确保所有操作器都保持单一,从而保证存在一个独特的平衡点。最后,我们展示了如何将这些模型的若干版本瞬间化,并为结构化的线性操作器,例如多尺度的演算器。由此产生的模型大大超越了可保证、稳定的内核/内存式模型。同时,在更高效的内存式的计算中。

1
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
44+阅读 · 2020年10月31日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
14+阅读 · 2019年10月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
7+阅读 · 2018年4月18日
Arxiv
0+阅读 · 2021年6月28日
Arxiv
0+阅读 · 2021年6月27日
Arxiv
8+阅读 · 2019年2月15日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
7+阅读 · 2018年4月18日
Top
微信扫码咨询专知VIP会员