易图秒懂の神经网络潜行-CNN前生

2017 年 8 月 6 日 数萃大数据 史春奇

【数萃大数据】公众号又开办了一个新栏目,之后我们每周末会为大家分享各种趣闻趣事名人好书

我们将连续转载史春奇老师高品质的推文。感谢史春奇老师的授权以及对数萃大数据学院的大力支持!



在“易图秒懂の神经网络诞生"里面,简述了神经网络诞生,它诞生后,火爆了, 但后来又被打入了冷宫。 这里开始解释神经网络受冷之后,如何慢慢发展的。 


前言


前面我们讲到神经网络诞生, 最早产生了MP静态模型, 然后Hebb学习后有了Perceptron动态模型, 然后XOR问题被打入冷宫, 再后来, 有了BP算法,产生了多层感知机MLP。 于是发展潜行。 但是这时候, 神经网络已经冷下来了, 多层感知机也没有火起来。 但是却深刻影响着后来的网络。 


这其中就有现在深度学习很火的网络模型的前生。 现在,深度学习神经网络里面最火的里面有二个最大的类别CNN卷积神经网络, 和RNN递归神经网络。 其中, CNN的前生叫Neocognitron, 而RNN的前生叫Elman Network或者Simple Recurrent Network SRN。 这次先说明下CNN前生, Neocognitron是如何做到的?


一图抵千言


来自日本教授福岛邦彦, 受到感知机的影响, 走上了神经网络的道路。 但是一路走来并不容易。 正是这个Fukushima教授, 发明了Neocognitron网络。 这个网络的发明, 首先,是受到当时视觉神经系统的Hubel-Wiesel模型的影响。 



在Hubel-Wiesel模型里面, 通过动物的视觉刺激, 来观察了脑部接受的电信号来提出假设模型。 




这是一个特征的分层模型, 从简单单元Simple Cell SC到复杂单元Complex Cell CC,然后到超级复杂单元,并且通过交叉映射来实现。 



而福岛提出了类似的神经网络模型用来做模式识别的进程先识别边, 然后识别特征, 然后模式识别。  这不就是我们介绍深度学习里面用的最多的东东?



并且为此构建了网络模型, 是个多层网络模型, 并且命名了简单单元和复杂单元的映射, 作为每个层次识别的层结构。 


并且, 还采用了手写数字识别的实验来验证模型!  如果你了解CNN的话, 这是不是就是一个CNN的结构了?那么它受到哪些影响?


多层模型的参考


Neocognitron模型是个多层模型, 这个多层模型就是参考了MLP的多层模型的。 正是福岛意识到多层模型的重要性, 所以才有了Neocognitron的成果




为什么采用手写体?


其实手写体的应用是德国的Heinrich Giebel最早应用的, 也正是因为Giebel应用里面他提出了特征提取和识别和神经网络的关系,而受到福岛的关注。 



如何做到交叉映射的?


其实这个不是单纯的从生物学直接跳到物理实现的, 而是福岛之前受到两个大的方面的影响, 一个方面是来自Kohonen的关于associate memory发明的熏陶。 学过神经网络的知道,Kohonen最经典的是提出过SOM自组织映射网络。 其实这也是他对associative memory理论深入研究后的成果。 Kohonen早期一直研究发表, 并且出书了Content-Addressable Momories CAM, 这就是一种associate memory。 其实,这是对Estrin的CAM模型的一种带学习的扩展。 而这个Estrin就是冯诺依曼工作小组的员工, 对于内容寻址方面提出了CAM模型。 但是如何自学习这个CAM模型呢?Kohonen做了很多早期的研究和发表, 并且影响力蛮大的。 



另外一个方面,就是有个叫Anderson的脑科学家, 发明了Cross Correlation的方法, 提出脑功能模型, 也对Neocognitron产生了影响。 而这个Cross Correlation几乎就是卷积的另外一种表达。 




并且, Neocognitron的工作影响力巨大, 除了作为CNN的前生, 还对Malsburg的脑功能的相关性理论,和后面记忆模型影响深远 。 






小结


这里描述了CNN的前生Neocognitron是在什么样影响下诞生的。 下次介绍RNN的前生。 








欢迎参加【杭州站】Python大数据分析培训

8月18日-22日


扫描下方二维码了解更多






登录查看更多
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
【UCLA】基于深度神经网络的工业大模型预测控制,36页ppt
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
30+阅读 · 2020年4月15日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
89+阅读 · 2020年4月7日
Capsule Networks,胶囊网络,57页ppt,布法罗大学
专知会员服务
65+阅读 · 2020年2月29日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
送书 | Keras深度学习你必须知道的神经网络基础
基础 | 深度解析LSTM神经网络的设计原理
黑龙江大学自然语言处理实验室
6+阅读 · 2018年6月16日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
在深度学习的革命中,谈谈卷积神经网络(CNN)
开源中国
8+阅读 · 2018年3月23日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
深度解析LSTM神经网络的设计原理
AI研习社
5+阅读 · 2017年11月1日
深入理解LSTM网络
深度学习
16+阅读 · 2017年6月7日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
21+阅读 · 2018年2月14日
VIP会员
相关资讯
送书 | Keras深度学习你必须知道的神经网络基础
基础 | 深度解析LSTM神经网络的设计原理
黑龙江大学自然语言处理实验室
6+阅读 · 2018年6月16日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
在深度学习的革命中,谈谈卷积神经网络(CNN)
开源中国
8+阅读 · 2018年3月23日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
深度解析LSTM神经网络的设计原理
AI研习社
5+阅读 · 2017年11月1日
深入理解LSTM网络
深度学习
16+阅读 · 2017年6月7日
相关论文
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
21+阅读 · 2018年2月14日
Top
微信扫码咨询专知VIP会员