一文带你读懂 DeconvNet 上采样层(语义分割)

2019 年 3 月 16 日 AI研习社

本文为 AI 研习社编译的技术博客,原标题 :

Review: DeconvNet — Unpooling Layer (Semantic Segmentation)

作者 | SH Tsang

翻译 | 斯蒂芬·二狗子       

校对 | 酱番梨        审核 | 约翰逊·李加薪       整理 | 立鱼王

原文链接:

https://towardsdatascience.com/review-deconvnet-unpooling-layer-semantic-segmentation-55cf8a6e380e

注:本文的相关链接请访问文末二维码


在本文中,我们简要回顾了DeconvNet,反卷积网络(DeconvNet)由反卷积deconvolution 和上池化unpooling层组成。

对于传统的全卷积网络FCN,输出是通过高比率(32×,16×和8×倍)的上采样获得的,这可能引起粗分割输出结果(标签图)。在DeconvNet中,最终的输出标签是通过逐渐进行的反卷积和上池化获得的。这篇论文发表于2015年ICCV上,当我写这篇博文时,已经有一千多的引用量(SH Tsang @ Medium)。

本文涉及的内容

  1. 上池化和反卷积

  2. 实例分割

  3. 两阶段训练

  4. 模型结果


   1.上采样和反卷积

以下是DeconvNet的整体架构:


DeconvNet 的架构

正如我们看到的,该网络使用VGG作为其backbone框架。第一部分是卷积网络,像FCN一样,具有卷积和池化层。第二部分是反卷积网络,这是本文中的一个新颖部分。

Pooling过程(左),模型记住位置信息,在Unpooling期间使用位置信息(右)

要执行上池化,我们需要记住执行最大池时每个最大激活值的位置,如上所示。然后,记住的位置信息用于上池化操作,如上所示。

卷积是将输入转换为更小的尺寸(左),反卷积是将输入转换回更大的尺寸(右)

反卷积只是为了将输入转换回更大的尺寸。 (如有兴趣,请阅读我的有关FCN评论一文,详细了解。)

一个反卷积Deconvolution 和上池化Unpooling的例子

上图是一个例子。 (b)是14×14 反卷积层的输出。 (c)是上池化后的输出,依此顺序类推。我们可以在(j)中看到自行车的标签图可以在最后的224×224 反卷积层重建,这表明学习特征的这些卷积核可以捕获类特定的形状信息。

输入图像(左),FCN-8s(中),DeconvNet(右)

上面展示的其他示例表明DeconvNet比FCN-8可以给出更精确的形状。


   2.实例分割

不使用区域提议Region Proposals的语义分割任务的不好的例子

如上所示,基本上大于或小于感受野的物体可能被模型给碎片化分割或贴上错误的标签。像素较小的目标经常被忽略并归类为背景。

语义分割可以看为是实例分割问题。首先,通过对象检测方法EdgeBox检测2000个区域建议region proposals中的前50个(边界框)。然后,DeconvNet应用于每个区域,并将所有建议区域的输出汇总回原始图像。通过使用 proposals  ,可以有效地处理各种规模的图片分割问题。


   3.两阶段训练

第一阶段训练

使用ground-truth标注来裁剪目标实例,使目标在裁剪的边界框中居中,然后进行训练。这有助于减少对象位置和大小的变化。

第二阶段训练

使用更具挑战性的例子。这些例子是由重叠的ground-truth 分割的区域建议生成/裁剪的。

其他细节

  • BN 在网络中使用

  • 使用VGG的权重来初始化卷积层的参数

  • 反卷积层的参数初始化为0均值的高斯分布

  • 每batch样本数量是64


   4.结果

mean Iou结果

  • FCN-8s:只有 64.4% mean IoU.

  • DeconvNet: 69.6%

  • DeconvNet+CRF: 70.5% (其中CRF只是一个模型输出后的处理步骤)

  • EDeconvNet: 71.5% (EDeconvNet 是指DeconvNet和FCN-8s模型集成后的结果)

  • EDeconvNet+CRF: 72.5%具有最高的mean IoU结果。

实例分割的优势

从上图中知道,实例分割有助于逐个实例地逐步分割,而不是一次对所有实例进行分段。

值得注意的是,DeconvNet的优势不仅来逐步的反卷积和上池,还可能来自实例分割和两阶段 two-stage的训练。

一些可视化结果

即使EConvNet + CRF输出结果比FCN差,但通常它的实际效果还是很好的。

参考文献

[2015 ICCV] [DeconvNet]
Learning Deconvolution Network for Semantic Segmentation

我的其他文章

[FCN] [VGGNet]


想要继续查看该篇文章相关链接和参考文献?

点击底部【阅读原文】或长按下方地址/二维码访问:

https://ai.yanxishe.com/page/TextTranslation/1530


点击阅读原文,查看更多内容

登录查看更多
26

相关内容

思想来自于视觉机制,是对信息进行抽象的过程。
最新《医学图像深度语义分割》综述论文
专知会员服务
94+阅读 · 2020年6月7日
【CVPR2020-旷视】DPGN:分布传播图网络的小样本学习
专知会员服务
26+阅读 · 2020年4月1日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
专知会员服务
41+阅读 · 2020年2月20日
PSPNet ——语义分割及场景分析
AI科技评论
20+阅读 · 2019年8月20日
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
Panoptic Feature Pyramid Networks
Arxiv
3+阅读 · 2019年1月8日
Arxiv
3+阅读 · 2018年6月14日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关资讯
PSPNet ——语义分割及场景分析
AI科技评论
20+阅读 · 2019年8月20日
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
Top
微信扫码咨询专知VIP会员