AI初识:深度学习中被"嫌弃”的池化到底是什么?

2019 年 8 月 5 日 极市平台

加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~


今天来说说深度学习中的池化问题,包含池化的种类,作用机制以及最新的思考。


1 池化还要不要了


通常我们认为,池化可以增加网络对于平移的不变性,对于网络的泛化能力的提升是非常关键的。不过,到底能起到多大的正向作用,却是被很多人怀疑的。


首先是Hinton,还记得Hinton提出的Capsule Module吧。他认为池化的使用就是一个大错误,而它有效又反而是一个大灾难。池化固然可以提供一些平移和旋转不变性,但是也破坏了图像中的姿态和空间等信息,对检测分割等高级任务有影响,所以才提出胶囊网络(CapsuleNetwork)。至于这个发展的怎么样了,笔者没有关注,但是从大佬敢于革自己的“本命”这一点,就说明这个问题确实有点严重。


Hinton虽然指出了pooling的坏影响,但是无法否定其好处,那么池化是不是真的能够提升网络的泛化能力呢?


首先站出来好好回答这个问题的是斯坦福大学Eric Kauderer-Abrams的研究【1】,它们通过一个平移敏感图来进行研究。


这个平移敏感图长下面这样,它评估的就是一个网络的输出对于输入的平移的敏感度。

上面这个图是这么算的,首先用原图计算预测特征分数,然后用平移过的图计算预测特征分数,最后计算两者的归一化分数,越亮说明越相关。x和y分别就是偏移量,可以看到x,y都接近0的时候越亮,说明越相关,然后就随着距离的增强而降低。


这就是说平移越大之后,对性能的影响越大,毕竟一个网络不可能拥有完全的平移不变性。


在这个基础上,他们就做实验了,结果如下,c表示卷积,p表示pooling,aug表示数据增强,所以这里就是比较pooling和aug对性能的影响,结果表明池化不池化的,好像没有什么用,而数据增强做不做得好,才是关键。结果说明CNN本身没什么平移不变性,是靠数据学来的。

上面做了实验,但是没有更深层次地分析,为什么池化就没有用了呢,这可是违反我们的常识的。



DeepMind的研究【2】给出了一个比较有说服力的解答,实验的设置差不多,使用非池化和各种池化的网络结构。

总之结论就是:看上面的4个图

(a) 刚开始的时候池化确实有利于提高抗变形能力。

(b) 不管池化不池化,模型最后学习完都能获得同样的抗变形能力。

(c) 初始化的时候不同的池化方法是有差异的。

(d) 学习完之后不管什么池化方法效果都差不多。



那总得有个理由吧?他们给出的理由是卷积核本身参数越平滑才越能提高对平移的稳定性,文中在卷积操作后面串接平滑操作,实验对比如下。

这也没毛病对吧,卷积核都平滑了,当然就没有那么敏感了。


暂且先总结一下吧:池化什么的不重要了,搞数据增强才是正道。


2 什么是池化


上面都这么说了,接下来说池化略有点尴尬,但是作为知识体系的重要一环,还是有必要讲述。


pooling,小名池化,思想来自于视觉机制,是对信息进行抽象的过程。


上图就是一个池化的示意图,用了一个10*10的卷积核,对20*20的图像分块不重叠的进行了池化,池化之后featuremap为2*2的大小。


pooling有什么用呢?或者说为什么需要pooling呢?原因有几个:


1、增大感受野


所谓感受野,即一个像素对应回原图的区域大小,假如没有pooling,一个3*3,步长为1的卷积,那么输出的一个像素的感受野就是3*3的区域,再加一个stride=1的3*3卷积,则感受野为5*5。


假如我们在每一个卷积中间加上3*3的pooling呢?很明显感受野迅速增大,这就是pooling的一大用处。感受野的增加对于模型的能力的提升是必要的,正所谓“一叶障目则不见泰山也”。


2、平移不变性


我们希望目标的些许位置的移动,能得到相同的结果。因为pooling不断地抽象了区域的特征而不关心位置,所以pooling一定程度上增加了平移不变性。


3、降低优化难度和参数


我们可以用步长大于1的卷积来替代池化,但是池化每个特征通道单独做降采样,与基于卷积的降采样相比,不需要参数,更容易优化。全局池化更是可以大大降低模型的参数量和优化工作量。


3 池化有哪些


1、平均池化和最大池化


这是我们最熟悉的,通常认为如果选取区域均值(mean pooling),往往能保留整体数据的特征,较好的突出背景信息;如果选取区域最大值(max pooling),则能更好保留纹理特征。


2、stochastic pooling/mixed pooling



stochastic pooling对feature map中的元素按照其概率值大小随机选择,元素被选中的概率与其数值大小正相关,这就是一种正则化的操作了。mixed pooling就是在max/average pooling中进行随机选择。


3、Data Driven/Detail-Preserving Pooling


上面的这些方法都是手动设计,而现在深度学习各个领域其实都是往自动化的方向发展。


我们前面也说过,从激活函数到归一化都开始研究数据驱动的方案,池化也是如此,每一张图片都可以学习到最适合自己的池化方式。


此外还有一些变种如weighted max pooling,Lp pooling,generalization max pooling就不再提了,还有global pooling。


4 总结

带步长的卷积虽然不需要池化,却没有了灵活的激活机制。平均池化稳扎稳打,却丢失了细节。最大池化克服了平均池化的缺点,却打断了梯度回传。


最终发现,池化也还是要学的好,所谓随机应变,盖莫如此。另外,如何选择好用于池化的区域,也是一门学问。



参考文献


[1] Kaudererabrams E. Quantifying Translation-Invariance in Convolutional Neural Networks.[J]. arXiv: Computer Vision and Pattern Recognition, 2018.

[2] Ruderman A, Rabinowitz N C, Morcos A S, et al. Pooling is neither necessary nor sufficient for appropriate deformation stability in CNNs[J]. arXiv: Computer Vision and Pattern Recognition, 2018.






-完-




*延伸阅读


添加极市小助手微信(ID : cv-mart),备注:进-姓名-研究方向即可申请加入极市技术交流群,更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流,一起来让思想之光照的更远吧~


△长按添加极市小助手


△长按关注极市平台



觉得有用麻烦给个在看啦~  

登录查看更多
1

相关内容

思想来自于视觉机制,是对信息进行抽象的过程。
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
90+阅读 · 2020年4月7日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
139+阅读 · 2020年3月1日
Capsule Networks,胶囊网络,57页ppt,布法罗大学
专知会员服务
67+阅读 · 2020年2月29日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
网络宽度对深度学习模型性能有什么影响?
极市平台
15+阅读 · 2019年7月7日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
什么是深度学习的卷积?
论智
18+阅读 · 2018年8月14日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
深度学习、图像识别入门,从VGG16卷积神经网络开始
数据挖掘入门与实战
8+阅读 · 2018年3月28日
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
机器学习和数学
20+阅读 · 2017年10月13日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
26+阅读 · 2017年6月21日
Arxiv
9+阅读 · 2020年2月15日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
23+阅读 · 2018年10月1日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
90+阅读 · 2020年4月7日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
139+阅读 · 2020年3月1日
Capsule Networks,胶囊网络,57页ppt,布法罗大学
专知会员服务
67+阅读 · 2020年2月29日
相关资讯
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
网络宽度对深度学习模型性能有什么影响?
极市平台
15+阅读 · 2019年7月7日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
什么是深度学习的卷积?
论智
18+阅读 · 2018年8月14日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
深度学习、图像识别入门,从VGG16卷积神经网络开始
数据挖掘入门与实战
8+阅读 · 2018年3月28日
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
机器学习和数学
20+阅读 · 2017年10月13日
精选 | 一张动图看懂卷积神经网络之卷积计算层
七月在线实验室
26+阅读 · 2017年6月21日
相关论文
Arxiv
9+阅读 · 2020年2月15日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
23+阅读 · 2018年10月1日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员