Viewing recurrent neural networks (RNNs) as continuous-time dynamical systems, we propose a recurrent unit that describes the hidden state's evolution with two parts: a well-understood linear component plus a Lipschitz nonlinearity. This particular functional form facilitates stability analysis of the long-term behavior of the recurrent unit using tools from nonlinear systems theory. In turn, this enables architectural design decisions before experimentation. Sufficient conditions for global stability of the recurrent unit are obtained, motivating a novel scheme for constructing hidden-to-hidden matrices. Our experiments demonstrate that the Lipschitz RNN can outperform existing recurrent units on a range of benchmark tasks, including computer vision, language modeling and speech prediction tasks. Finally, through Hessian-based analysis we demonstrate that our Lipschitz recurrent unit is more robust with respect to input and parameter perturbations as compared to other continuous-time RNNs.


翻译:将经常性神经网络(RNN)视为连续时动态系统,我们提出一个经常性单元,用两部分来描述隐藏状态的演变:一个深为理解的线性组件,加上一个不直线性部分。这种特定的功能形式有助于利用非线性系统理论的工具对经常性单位的长期行为进行稳定分析。反过来,这又使得在实验之前就能够作出建筑设计决定。为经常性单位的全球稳定创造足够的条件,鼓励建立一个建造隐藏至隐藏矩阵的新计划。我们的实验表明,利普西茨网络可以在一系列基准任务上比现有的经常性单位更完善,包括计算机视觉、语言模型和语言预测任务。最后,通过基于赫斯安的分析,我们证明我们的利普西茨经常性单位与其他连续时间的RNNP相比,在输入和参数穿透方面更加强大。

0
下载
关闭预览

相关内容

专知会员服务
26+阅读 · 2021年4月2日
专知会员服务
31+阅读 · 2020年12月14日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
23+阅读 · 2020年1月28日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
已删除
将门创投
4+阅读 · 2019年11月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
1+阅读 · 2021年6月15日
Arxiv
0+阅读 · 2021年6月11日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
4+阅读 · 2019年11月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关论文
Arxiv
1+阅读 · 2021年6月15日
Arxiv
0+阅读 · 2021年6月11日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Top
微信扫码咨询专知VIP会员