We provide a general framework for studying recurrent neural networks (RNNs) trained by injecting noise into hidden states. Specifically, we consider RNNs that can be viewed as discretizations of stochastic differential equations driven by input data. This framework allows us to study the implicit regularization effect of general noise injection schemes by deriving an approximate explicit regularizer in the small noise regime. We find that, under reasonable assumptions, this implicit regularization promotes flatter minima; it biases towards models with more stable dynamics; and, in classification tasks, it favors models with larger classification margin. Sufficient conditions for global stability are obtained, highlighting the phenomenon of stochastic stabilization, where noise injection can improve stability during training. Our theory is supported by empirical results which demonstrate that the RNNs have improved robustness with respect to various input perturbations.


翻译:我们为研究通过向隐蔽国家注入噪音而培训的经常性神经网络提供了一个总体框架。 具体地说,我们认为,可以被视为由输入数据驱动的随机差异方程式分离的神经网络(RNN),这个框架使我们能够研究普通噪音注射计划的内在正规化效果,在小噪音制度中可以产生大致明确的常规化效果。 我们发现,根据合理的假设,这种隐含的正规化会助长低音;它偏向具有较稳定动态的模型;在分类任务中,它有利于具有较大分类余地的模型。 已经为全球稳定创造了充分的条件,突出了静态稳定现象,在培训期间注入噪音可以改善稳定性。 我们的理论得到了经验结果的支持,证明RNN在各种投入干扰方面更加稳健。

0
下载
关闭预览

相关内容

【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
9+阅读 · 2020年10月29日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2018年10月25日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员