Recurrent neural networks are key tools for sequential data processing. However, they are notorious for problems regarding their training. Challenges include capturing complex relations between consecutive states and stability and efficiency of training. In this paper, we introduce a recurrent neural architecture called Deep Memory Update (DMU), as it is based on updating the previous memory state with a deep transformation of the lagged state and the network input. The architecture is able to learn the transformation of its internal state using an arbitrary nonlinear function. Its training is stable and relatively fast due to the speed of training varying according to a layer depth. Even though DMU is based on simple components, experimental results presented here confirm that it can compete with and often outperform state-of-the-art architectures such as Long Short-Term Memory, Gated Recurrent Units, and Recurrent Highway Networks.


翻译:经常性神经网络是连续处理数据的关键工具。 但是,经常神经网络因其培训问题而臭名昭著。 挑战包括掌握连续各州之间的复杂关系以及培训的稳定性和效率。 在本文中,我们引入了一个名为“深记忆更新”的经常性神经结构,因为它以更新以前的记忆状态为基础,对滞后状态和网络输入进行了深刻的改造。 结构能够使用任意的非线性功能学习内部状态的转型。 其培训是稳定且相对快速的, 因为培训速度因层次深度不同而不同。 尽管 DMU基于简单的组件, 但这里提出的实验结果证实它能够与长期短期记忆、Gated 常规单元和经常性高速公路网络等最先进的结构进行竞争, 并且往往超越了这种结构。

0
下载
关闭预览

相关内容

专知会员服务
53+阅读 · 2021年9月3日
专知会员服务
18+阅读 · 2020年9月15日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
6+阅读 · 2019年7月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
3+阅读 · 2015年11月29日
VIP会员
相关VIP内容
专知会员服务
53+阅读 · 2021年9月3日
专知会员服务
18+阅读 · 2020年9月15日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
6+阅读 · 2019年7月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
3+阅读 · 2015年11月29日
Top
微信扫码咨询专知VIP会员