全连接网络到卷积神经网络逐步推导

2018 年 4 月 25 日 炼数成金订阅号 Ahmed Gad

在图像分析中,卷积神经网络(Convolutional Neural Networks, CNN)在时间和内存方面优于全连接网络(Full Connected, FC)。这是为什么呢?卷积神经网络优于全连接网络的优势是什么呢?卷积神经网络是如何从全连接网络中派生出来的呢?卷积神经网络这个术语又是从哪里而来?这些问题在本文中一一为大家解答。


1.介绍

对于图像分析而言,具体可以将其划分为很多类型的任务,比如分类、对象检测、识别、描述等。对于图像分类器而言,即使在诸如遮挡、照明变化、视觉等变化的情况下,也应该能够以高精度的性能工作。以特征工程为主要步骤的传统图像分类方法不适合在丰富环境中工作,即使是该领域的专家也不能给出一组能够在不同变化下达到高精度的特征,无法保证手工所选的特征是否合适。在这个问题的启发下,特征学习的思想应运而生,通过自主学习来获得合适的图像特征,这也是人工神经网络(ANN)对于图像分析任务鲁棒性的原因之一。基于梯度下降算法(GD)等学习算法,ANN可以自动学习到图像特征,将原始图像输入人工神经网络后,ANN能够自动地生成描述它的特征。


2.基于全连接网络的图像分析

现在一起看看人工神经网络是如何对进行处理的,以及CNN为什么在时间和内存上相较于全连接网络更高效。如图1所示,输入的是一个3x3大小的灰度图。例子中使用小尺寸的图像是为了方便讲解,而不是表明ANN只能处理小尺寸的图像。



图像1


在输入ANN时,图像会转变为像素矩阵。由于ANN使用的是一维向量,而不是二维矩阵,所以将输入的二维灰度图转换成一维向量,其中每个像素点代表一个输入神经元节点。

图像2


每个像素被映射为向量元素,向量中的每个元素又代表ANN中的神经元。由于图像有3x3=9个像素点,那么输入层(Input Layer)将有9个神经元。由于ANN结构通常水平延伸,因此每层被表示为列向量。

输入层与隐藏层(Hidden Layer)相连,输入层的输出又输入给隐藏层,隐藏层学习如何将图像像素转换为代表性特征。假设在图3中有一个具由16个神经元的单个隐藏层。


图像3


由于网络是全连接网络,这意味着第i层的每个神经元与第i-1层中的所有神经元相连。即隐藏层中的每个神经元都与输入层中9个神经元相连。换句话说,每个输入像素与隐藏层中的16个神经元相连,其中每条连接都具有相应的参数(权重)。通过将每个像素与隐藏层中的所有神经元相连,如图4所示,该网络具有9x16=144个参数(权重)。


图像4


3.大量参数

上面例子中的参数数目似乎还可以接受,但是随着输入图像尺寸变大以及隐藏层数量增加,网络参数将大大增加。

例如,若网络具有两个隐层,分别有90和50个神经元,那么输入层和第一隐藏层之间的参数数目是9x90=810,两个隐藏层之间的参数数目为90x50=4500,该网络的参数总数为810+4500=5310。对于这样简单的网络结构就有这么多的参数数量,显然是不合适的;另外一种情况是输入图像尺寸较大,比如32x32大小的图像(1024个像素),如果网络使用单个隐藏层(含有500个神经元),则总共有1024x500=512000个参数(权重),这对于只含单个隐藏层的网络而言是一个巨大的数字。因此,必须有一个解决方案来减少网络参数,那么针对于此,卷积神经网络(CNN)应运而生,虽然它网络模型通常比较大,但大大降低了参数数量。


4.神经元组群

即使是很小的全连接网络,网络参数数目变得非常大的原因在于其层与层之间神经元每条连接上都是不同的参数。因此,可以考虑给一组神经元提供相同的参数,如图5所示,一组神经元内的神经元都将分配同一个参数。



图像5


这样处理以后,网络参数数量大大降低。以图4为例,比如每4个连续神经元作为一组,其结果是参数数量减少了4倍。每个输入神经元将具有16/4=4个参数。整个网络将具有144/4=36个参数,参数数量减少了75%。可以看到,其效果很好,但仍然有可优化的地方。


图像6


图7显示了每个像素到每个组中第一个神经元的连接,但每组中的每个像素与每个神经元还是相互连接,该网络仍然是全连接网络。


图像7


为了简单起见,只挑选出一组并忽略其它组,如图8所示。从图中可以看到,每个组仍然与输入层所有的9个神经元有所连接,因此具有9个参数。


图像8


5.像素空间相关性

之前所述内容使得每个神经元接受所有像素,若存在接受4个输入的函数f(x1,x2,x3,x4),则这意味着要基于所有这4个输入来进行决定。如果只有2个输入,但其输出结果与使用4个输入的结果相同,那么将不必使用所有的这4个输入,只需给出对结果有影响的2个输入即可。借鉴该思想,每个神经元接受输入的9个像素,若能使用更少的像素获得相同或更好的结果就大大降低了参数数量,因此可以朝着这个方向优化网络参数。

通常,在图像分析中,输入图像被转换为像素矩阵,像素矩阵中的每个像素与它周围的像素高度相关,两个像素之间的距离越远,二者越不相关。例如,如图9所示,面部的像素与面部周围的像素相关,但它与天空、地面等像素的相关性较低。


图像9


基于这样的假设,上述示例中的每个神经元只接受彼此空间相关的像素,而不是将所有9个像素点都应用到每个输入神经元中,因此可以选择4个空间相关像素,如图10所示。对于像素矩阵位置(0,0),那么空间上最相关的像素是坐标点(0,1)、(1,0)以及(1,1)。同一组中的所有神经元共享相同的权重,那么每组中的4个神经元将只有4个参数而不是9个。总的参数变为4x4=16。与图4中的全连接网络相比,减少了128个参数(减少了88.89%)。


图像10


6.卷积神经网络(CNN)

由于CNN使用权重共享,使用较少的参数,这使得CNN网络结构一般层数比较多,这是全连接网络无法具有的特性。

现在只有4个权重分配给同一组中的所有神经元,那么这4个权重如何涵盖9个像素点呢?让我们看看这是如何处理的吧!

图11展示了图10中的一个网络,并为每条连接添加了权重标记。在神经元内部,4个输入像素中的每一个都与其相应的权重相乘,如图11中公式所示。



图像11


假设这里每次移动的步长设置为1(步长可以自己设置),每次相乘后将像素点索引移动一位,权重矩阵与另外一组像素相乘。以此类推,直到整个像素矩阵都与权重矩阵进行了相乘运算。整个过程与卷积运算相同,组的权重与图像矩阵之间进行卷积运算,这也是CNN有“卷积”一词的原因。


图像12


剩余的神经元组也会进行同样的操作,从像素矩阵的左上角开始,直到像素矩阵的右下角都与权重矩阵相乘。


7.参考

Aghdam, Hamed Habibi, and Elnaz Jahani Heravi. Guide to Convolutional Neural Networks: A Practical Application to Traffic-Sign Detection and Classification. Springer, 2017.


文章来源:云栖社区

《左飞的机器学习十八般算法武艺详解》课程注重算法原理的介绍,注重数学上的推导和解释,以期令人知其然更知其所以然。演示用之例子涉及Python(含scikit-learn包)、R、Matlab和Weka等多种数据挖掘环境,并以Python为主。算例讲求短小精悍,注重提升学员的基础能力,为后续包括NLP、CV等在内的领域进行深入研究奠定基础。点击下方二维码报名课程



登录查看更多
7

相关内容

全连接神经网络(fully connected neural network),顾名思义,就是相邻两层之间任意两个节点之间都有连接。全连接神经网络是最为普通的一种模型(比如和CNN相比),由于是全连接,所以会有更多的权重值和连接,因此也意味着占用更多的内存和计算
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
29+阅读 · 2020年4月15日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
专知会员服务
25+阅读 · 2020年2月15日
KGCN:使用TensorFlow进行知识图谱的机器学习
专知会员服务
80+阅读 · 2020年1月13日
卷积神经网络概述及Python实现
云栖社区
4+阅读 · 2018年9月1日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
全连接网络到卷积神经网络逐步推导(组图无公式)
全球人工智能
5+阅读 · 2018年4月22日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
干货 | 受限玻尔兹曼机基础教程
机器学习算法与Python学习
7+阅读 · 2018年3月27日
干货 | 卷积神经网络入门这一篇就够了
机器学习算法与Python学习
8+阅读 · 2018年1月16日
干货 | 深度学习之卷积神经网络(CNN)的模型结构
机器学习算法与Python学习
12+阅读 · 2017年11月1日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
12+阅读 · 2018年9月15日
Neural Arithmetic Logic Units
Arxiv
5+阅读 · 2018年8月1日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
6+阅读 · 2018年1月11日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关VIP内容
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
29+阅读 · 2020年4月15日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
专知会员服务
25+阅读 · 2020年2月15日
KGCN:使用TensorFlow进行知识图谱的机器学习
专知会员服务
80+阅读 · 2020年1月13日
相关资讯
卷积神经网络概述及Python实现
云栖社区
4+阅读 · 2018年9月1日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
全连接网络到卷积神经网络逐步推导(组图无公式)
全球人工智能
5+阅读 · 2018年4月22日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
干货 | 受限玻尔兹曼机基础教程
机器学习算法与Python学习
7+阅读 · 2018年3月27日
干货 | 卷积神经网络入门这一篇就够了
机器学习算法与Python学习
8+阅读 · 2018年1月16日
干货 | 深度学习之卷积神经网络(CNN)的模型结构
机器学习算法与Python学习
12+阅读 · 2017年11月1日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
相关论文
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
12+阅读 · 2018年9月15日
Neural Arithmetic Logic Units
Arxiv
5+阅读 · 2018年8月1日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
6+阅读 · 2018年1月11日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员