一文带你读懂 SegNet(语义分割)

2019 年 3 月 9 日 AI研习社

本文为 AI 研习社编译的技术博客,原标题 :

Review: SegNet (Semantic Segmentation)

作者 | SH Tsang

翻译 | 斯蒂芬•二狗子          

校对 | 酱番梨        审核 | 约翰逊 · 李加薪       整理 | 立鱼王

原文链接:

https://towardsdatascience.com/review-segnet-semantic-segmentation-e66f2e30fb96

注:本文的相关链接请访问文末二维码


这个图是SegNet演示效果,来源是作者上传到YouTube的一个视频 (https://www.youtube.com/watch?v=CxanE_W46ts)

在本文中,我将简要回顾剑桥大学的SegNet。最初它被提交到2015年CVPR,但最后它没有在CVPR上发布(但它的2015年arXiv技术报告版本仍然有超过100次引用)。相反,它发布于2017年TPAMI,引用次数超过1800次。现在,第一作者成为Magic Leap Inc.的深度学习和人工智能总监(SH Tsang @ Medium)

以下是作者的演示链接:

(https://www.youtube.com/watch?v=CxanE_W46ts) 

 还有一个有趣的演示,我们可以选择随机图像,甚至上传我们自己的图像来试用SegNet。我试过如下例子:

http://mi.eng.cam.ac.uk/projects/segnet/demo.php 


我从这个链接得到的道路场景图像的分割结果

文章大纲

  • 编码-解码器架构

  • DeconvNet 和 U-Net与的不同之处

  • 结论


   1.编码-解码器架构

SegNet: 编码-解码结构

  • SegNet具有编码器网络和相应的解码器网络,接着是按最终像素的分类层。

1.1. Encoder编码器

  • 在编码器处,执行卷积和最大池化。

  • VGG-16有13个卷积层。 (不用全连接的层)

  • 在进行2×2最大池化时,存储相应的最大池化索引(位置)。

1.2. Decoder解码器

使用最大池化的索引进行上采样

  • 在解码器处,执行上采样和卷积。最后,每个像素送到softmax分类器。

  • 在上采样期间,如上所示,调用相应编码器层处的最大池化索引以进行上采样。

  • 最后,使用K类softmax分类器来预测每个像素的类别。


   2. DeconvNet 和U-Net的不同

DeconvNet和U-Net具有与SegNet类似的结构。

2.1. DeconvNet 与 SegNet不同之处

  • Similar upsampling approach called unpooling is used.使用了类似的上采样方法,称为unpooling 反池化。

  • 不同,有完全连接的层,这使模型规模更大。

2.2. U-Net 与 SegNet不同之处

  • 用于生物医学图像分割。

  • 整个特征映射不是使用池化索引,而是从编码器传输到解码器,然后使用concatenation串联来执行卷积。

  • 这使模型更大,需要更多内存


   3.结论

尝试了两个数据集。一个是用于道路场景分割的CamVid数据集。一个是用于室内场景分割的SUN RGB-D数据集。

3.1. 用于道路场景分割的CamVid数据集

道路场景分割的CamVid数据集上,与传统方法相互比较

  • 如上所示,SegNet在多类分割问题上获得了非常好的结果。它也获得了最高级别的类平均值和全局平均值。

道路场景分割的CamVid数据集上,与深度学习方法相比较

  • 获得最高的全局平均准确度(G),类别平均准确度(C),mIOU和边界F1测量(BF)。它的结果优于FCN,DeepLabv1和DeconvNet。

定性结果

3.2. 用于室内场景分割的SUN RGB-D数据集

  • 仅使用RGB,不使用深度(D)信息。

在室内场景分割的SUN RGB-D数据集,与深度学习方法比较

  • 同样,SegNet优于FCN,DeconvNet和DeepLabv1。

  • 对于mIOU指标,SegNet只比DeepLabv1略差一些。

不同类的类平均准确度

  • 大尺寸目标的准确度更高。

  • 小尺寸目标的准确度较低。

定性分析结果

3.3. 内存和推断时间

内存和推断时间

  • SegNet比FCN和DeepLabv1慢,因为SegNet包含解码器架构。它比DeconvNet更快,因为它没有全连接层。

  • SegNet在训练和测试期间的内存要求都很低。并且模型尺寸比FCN和DeconvNet小得多。

参考文献

[2015 arXiv] [SegNet]
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling

[2017 TPAMI] [SegNet]
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation

想要继续查看该篇文章相关链接和参考文献?

点击底部【阅读原文】或长按下方地址/二维码访问:

https://ai.yanxishe.com/page/TextTranslation/1532

登录查看更多
19

相关内容

思想来自于视觉机制,是对信息进行抽象的过程。
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
专知会员服务
41+阅读 · 2020年2月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
PSPNet ——语义分割及场景分析
AI科技评论
20+阅读 · 2019年8月20日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
一文带你读懂 DeconvNet 上采样层(语义分割)
AI研习社
26+阅读 · 2019年3月16日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
一文概览主要语义分割网络:FCN,SegNet,U-Net...
极市平台
5+阅读 · 2018年6月8日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
Learning Dynamic Routing for Semantic Segmentation
Arxiv
8+阅读 · 2020年3月23日
UPSNet: A Unified Panoptic Segmentation Network
Arxiv
4+阅读 · 2019年1月12日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关VIP内容
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
专知会员服务
41+阅读 · 2020年2月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
相关资讯
PSPNet ——语义分割及场景分析
AI科技评论
20+阅读 · 2019年8月20日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
一文带你读懂 DeconvNet 上采样层(语义分割)
AI研习社
26+阅读 · 2019年3月16日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
一文概览主要语义分割网络:FCN,SegNet,U-Net...
极市平台
5+阅读 · 2018年6月8日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
Top
微信扫码咨询专知VIP会员