深度剖析卷积神经网络

2018 年 5 月 27 日 云栖社区

云栖君导读:深度了解卷积神经网络各个组件,顺带自建一个属于自己的神经网络。



最先进的图像识别体系结构采用了许多附加组件来补充卷积操作。在这篇文章中,你将了解到一些能够提高现代卷积神经网络速度和精度的重要的组件。


Pooling


使CNN非常高效的第一个秘密就是Pooling。Pooling是像卷积一样,用于对图像的每个局部区域标量变换的一种矢量。与卷积不同的是它们没有filters,也不用局部区域计算点积,而是计算平均值(Average Pooling)中的像素,或者只是选择强度最高的像素并丢弃剩余的像素(Max Pooling)。


Max Pooling近年来效果最好,它以某个地区的最大像素代表该地区最重要的特征为理论基础。通常我们希望分类的物体图像可能包含许多其他物体,例如,出现在汽车图像某处的猫可能会误导分类器,Pooling有助于缓解这种影响。


同时,它也大大降低了计算成本。通常,网络中每层的图像大小与每层的计算成本(触发器)成正比。分段卷积有时用作pooling的代替物,随着图层变得更深,Pooling会减少图像的尺寸,因此,它有助于防止网络需要的触发器数量激增。


Dropout


过度拟合是指由于过度依赖训练集中的某些特定功能导致的网络在训练集上运行良好,但在测试集上表现不佳的一种现象。Dropout是一种对抗过度拟合的技术。它可以随机地将一些激活值设置为0,迫使网络探索更多的方式来分类图像,而不是过度依赖一些功能。它也是AlesNet中的关键元素之一。


Batch Normalization


神经网络的一个主要问题是梯度消失。来自Google Brain的Ioffe和Szegedy发现,这主要是由于内部协变量变化导致的信息通过网络传播而引起的的变化数据分布的现象。他们所做的是称为Batch Normalization的技术,通过将每批图像标准化为具有零均值和单位差异来工作。


它通常放置在cnns的非线性(relu)之前。它极大地提高了准确性,同时极大地加快了训练过程。


数据增强


人类视觉系统在适应图像平移,旋转和其他形式的扭曲方面非常出色,拍摄图像并翻转它,大多数人仍然可以识别它。然而,covnets并不善于处理这种扭曲,他们可能会由于小的翻转而失败。但是通过随机扭曲图像训练,使用水平翻转,垂直翻转,旋转,移位和其他扭曲,将会使covnets学会如何处理这种扭曲。


另一种常用方法是从每幅图像中减去平均图像,然后除以标准差。


接下来将解释如何理由Keras来实现它们。


在这篇文章中,所有的实验都将在一个包含60000个32*32GB图像的CIFAR10数据集上进行。它分为50000个训练图像和10000个测试图像,为了让事情更加模块化,我们为每个图层创建一个简单的函数:



这里是我们的代码最重要的方面,单元函数定义了一个简单的图层,其中包含三个层次,第一个是我先前解释的Batch Normalization,接下来我们添加RELU激活,最后添加卷积,注意我是怎样用“预激活”的方式把RELU放在conv之前的。


现在我们将把这些单位层组合成一个模型:



在这里,我们使用功能性API来定义我们的模型,我们从三个单元格开始,每个单元格有64个过滤器,后面是一个Max Pooling layer,将32*32图像缩小到16*16。接下来是3128个过滤器单元,然后是Pooling,在这里,我们的图像变成8*8。最后,我们有另外3个单元,256通道。请注意,每当我们将图像尺寸缩小2倍时,我们将通道数增加一倍。


我们添加0.5的dropout,这将随机取消50%的参数,正如我之前解释的那样,它可以避免过度拟合。


接下来,我们需要加载cifar10数据集并执行一些数据进行增强:



在上面的代码中,加载训练和测试数据后,我们从每幅图像中减去平均图像并除以标准偏差,这是一种基本的数据增加技术。对于更先进的数据增强,我们的图像加载过程会略有改变,Keras有一个非常有用的数据增强程序,可以简化整个过程。


下面的代码可以做到这一点:



在上面,首先,我们指定了10度的旋转角度,高度和宽度都是5/32的偏移,最后是水平翻转,所有这些变换都会随机应用于训练集中的图像上。当然,还有更多转换存在,你可以查看可以为该类指定的所有参数。请记住,过度使用数据增强可能是有害的。


接下来,我们必须将标签转换为One热编码:


事实上,构成训练过程的几乎所有其他内容都与我之前的教程相同,这里是完整的代码:



首先,这里有一些不同之处



正如前面说的,cifar 10数据集由32*32的RGB图像组成,由此输入形状有3个通道。


下一行创建我们定义的模型的实例,并传入输入形状,最后一行将打印出我们网络的完整摘要,包括参数的数量。


最后需要解释的是:

首先我们要定义运行的时期的数量和每个时期的步骤数量。


steps_per_epoch = ceil(50000/128)


50000是总共训练图像的数量,我们使用一个批处理大小为128。


接下来是拟合函数,这与我在之前的教程中解释的拟合函数明显不同。


下面的第二个看看会有所帮助:



本教程主要是向你介绍基本组件,你也可以自己尝试调整参数和网络,以了解你可以提高的准确度。


本文由阿里云云栖社区组织翻译。


文章原标题《Components of convoutional neural networks》


作者:John Olafenwa


译者:乌拉乌拉,审校:袁虎。


end


饿了么CTO张雪峰:允许90后的技术人员“浮躁“一点

Java高级特性入门——泛型、反射和注解

你认真告白的样子,最迷人

胡晓明:“自主研发、共生共存、不碰数据是我们的三条生命线”

更多精彩

点此查看基本组件详细链接!

登录查看更多
7

相关内容

在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
26+阅读 · 2020年5月25日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
卷积神经网络数学原理解析
算法与数学之美
19+阅读 · 2019年8月23日
卷积神经网络简明教程
论智
8+阅读 · 2018年8月24日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
深度全解卷积神经网络(附论文)
数据派THU
6+阅读 · 2018年5月4日
理解卷积神经网络的利器:9篇重要的深度学习论文
机器学习研究会
9+阅读 · 2018年3月20日
【干货】卷积神经网络中的四种基本组件
变种神经网络的典型代表:深度残差网络
机器学习研究会
9+阅读 · 2017年10月20日
Tensorflow卷积神经网络
全球人工智能
13+阅读 · 2017年10月14日
Arxiv
35+阅读 · 2020年1月2日
Deep learning for cardiac image segmentation: A review
Arxiv
21+阅读 · 2019年11月9日
Arxiv
5+阅读 · 2018年10月11日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
Arxiv
15+阅读 · 2018年6月23日
VIP会员
相关VIP内容
相关资讯
卷积神经网络数学原理解析
算法与数学之美
19+阅读 · 2019年8月23日
卷积神经网络简明教程
论智
8+阅读 · 2018年8月24日
【干货】使用Pytorch实现卷积神经网络
专知
13+阅读 · 2018年5月12日
深度全解卷积神经网络(附论文)
数据派THU
6+阅读 · 2018年5月4日
理解卷积神经网络的利器:9篇重要的深度学习论文
机器学习研究会
9+阅读 · 2018年3月20日
【干货】卷积神经网络中的四种基本组件
变种神经网络的典型代表:深度残差网络
机器学习研究会
9+阅读 · 2017年10月20日
Tensorflow卷积神经网络
全球人工智能
13+阅读 · 2017年10月14日
Top
微信扫码咨询专知VIP会员