易图秒懂の神经网络潜行-RNN前生

2017 年 8 月 12 日 数萃大数据 史春奇

【数萃大数据】公众号又开办了一个新栏目,之后我们每周末会为大家分享各种趣闻趣事名人好书

我们将连续转载史春奇老师高品质的推文。感谢史春奇老师的授权以及对数萃大数据学院的大力支持!



在“易图秒懂の神经网络潜行-CNN前生"里面,简述了CNN的前生Neocognitron横空出世的环境和当时的影响。 这里描述RNN的前生, 叫SRN,简单递归网络的诞生, 这个Simple Recurrent Network又名叫Elman Network。 


前言


在前面我们谈到Kohonen的CAM理论,是源于对冯诺依曼工作小组的Estrin的寻址内存的模型扩展而来的。 



而Kohonen的这个CAM理论影响超级大, 不仅仅影响了Neocognitron福岛, 还影响了另外个人, 这个人对后来神经网络恢复元气作用巨大。 他就是物理学家Hopfield。 他提出了Hopfield模型, 而SRN或者Elman网络几乎就是对Hopfield网络的一个变形。 






一图抵千言


Elman Network是Hopfield网络的变形


SRN其实就是给Hopfield网络加了一个输入层和输出层, 把整个Hopfield网络变成了隐藏层。 这种变化其实也可以说是受到MLP三层模型的影响。 


Hopfiled网络有没有其它知名变形


其实, 除了SRN模型, Hopfield网络还有另外一个变种叫BAM (参考 ”神经网络之双向关联记忆网络(BAM)“)BAM相当于把Hopfield网络进行了一次展开, 然后一层称为输入, 另外一层称为输出。  无论是SRN还是BAM, 都继承了Hopfield关于能量函数, 和收敛性证明方面的结论。 而这个BAM某种意义上是深度中RBM模块的前生BM boltzmann machine的前生。 




Hopfield网络是如何炼成的?


Hopfield网络的横空出世得益于三大方面, 首先,受到了Kohonen的CAM的启发, 着眼于相关性的方向的神经网络。  其次, 采用了另外一个物理生物学家Little定义的能量函数。 并且Little还根据李雅普诺夫的不动点理论, 证明了收敛性。 




再次,就是吸收了物理学家Widow的ADALINE模型的学习机制。 这样, 有了三合一, Hopfield网络理论就诞生了。 




Hopfield网络的影响


其实后来有个叫Grossberg的神经科学家, 对Hopfield的工作和福岛的工作进行了深刻讨论, 提出了记忆模型 和 ART模型自回声网络。类似记忆模型的工作对后来RNN的变种LSTM的影响很大。 Grossberg本人对Sigmoid函数的鼓吹, 也对后来BP算法的流行有深刻影响。 



SRN的三大学习算法


除了SRN网络结构的完善, 学习能力也不能落下, 三大学习算法BPTT,EKF和RTRL训练,也多在受到Hopfield网络模型成功影响力下, 发明出来了。  而后来深度学习里面LSTM的发明, 也是一个硕士对这三个算法的深入理解, 总结缺点后的突破。 以后深度学习的部分会讲到。 


实BPTT就是最早发明BP的那个Werbos发明的。 而RTRL也和以后再发明应用BP算法, 并且引起轰动的Rumelhart有关系。 而Rumelhart是连接主义的代表人物, 以后也会谈谈他。 




小结


这样, 透过Hopfield网络的成功和变形, SRN横空出世, 伴随着神经网络记忆学习理论的总结, 和三大学习算法的出现。 RNN的前生就这么铺垫好了。 


推荐阅读

微课|ggplot2: 散点图

微课|ggplot2: 折线图

微课|ggplot2:条形图

趣事分享 | python与微信

【Python微课】系列之一:Matplotlib基础绘图

【统计思想之十七】—— 古人学问无遗力,少壮工夫老始成。

易图秒懂の神经网络潜行-CNN前生

【案例分析】NBA球员投篮数据分析与可视化



欢迎大家关注微信公众号:数萃大数据



课程公告

python大数据分析培训班【杭州站】

时间:2017年8月18日-22日

地点:杭州亚朵吴酒店

更多详情,请扫描下面二维码

网络爬虫与文本挖掘培训班【宁波站】

时间:2017年9月23日-25日

地点:维也纳国际酒店(机场店)

更多详情,请扫描下面二维码



登录查看更多
0

相关内容

【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
77+阅读 · 2020年6月25日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
173+阅读 · 2020年5月6日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
【BAAI|2019】类脑神经网络技术及其应用,鲁华祥(附pdf)
专知会员服务
30+阅读 · 2019年11月21日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
119+阅读 · 2019年9月24日
前沿 | CNN取代RNN?当序列建模不再需要循环网络
基础 | GRU神经网络
黑龙江大学自然语言处理实验室
27+阅读 · 2018年3月5日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
22+阅读 · 2018年2月14日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关VIP内容
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
77+阅读 · 2020年6月25日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
173+阅读 · 2020年5月6日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
【BAAI|2019】类脑神经网络技术及其应用,鲁华祥(附pdf)
专知会员服务
30+阅读 · 2019年11月21日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
119+阅读 · 2019年9月24日
相关资讯
前沿 | CNN取代RNN?当序列建模不再需要循环网络
基础 | GRU神经网络
黑龙江大学自然语言处理实验室
27+阅读 · 2018年3月5日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
相关论文
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
22+阅读 · 2018年2月14日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员