CVPR2019 | Decoders 对于语义分割的重要性

2019 年 3 月 24 日 计算机视觉life

 点“计算机视觉life”关注,置顶更快接收消息!

作者 | you62580

原文地址 | https://zhuanlan.zhihu.com/p/59044838

论文地址 | https://arxiv.org/abs/1903.02120

该文章提出了一种不同于双线性插值的上采样方法,能够更好的建立每个像素之间预测的相关性。得益于这个强大的上采样方法,模型能够减少对特征图分辨率的依赖,能极大的减少运算量。该工作在PASCAL VOC数据集上达到了88.1%的mIOU,超过了DeeplabV3+的同时只有其30%的计算量。


1. Introduction

在之前的语义分割方法中,双线性插值通常作为其最后一步来还原特征图的分辨率,由于非线性差值不能建立起每个像素的预测之间的关系,因此为了得到精细的结果,对特征图的分辨率要求较高,同时带来了巨额的计算量。


为了解决这个问题,本工作提出了Data-dependent Up-sampling (DUpsample),能够减少上采样操作对特征图分辨率的依赖,大量的减少计算量。同时得益于DUpsample, Encoder中的low-level feature能够以更小的运算量与Decoder中的high-level feature进行融合,模型结构如下所示:



我们可以看到,该网络将传统的非线性插值替换成DUpsample,同时在feature fuse方面,不同于之前方法将Decoder中的特征上采样与Encoder特征融合,本工作将Encoder中的特征下采样与Decoder融合,大大减少了计算量 ,这都得益于DUpsample。


2 Our Approach


其中以两倍为例,DUpsample的操作如下图所示:



我们可以用 1x1 卷积来完成上述的权重与特征相乘的过程。文章中作者指出,DUpsample的权重是经过预训练得到的,因此在上采样尺度比较大时,不会引入过多的学习参数,可以视为PixelShuffle的提升版本。


但是当我们将这个模块嵌入到网络时会遇到优化问题。因此我们使用softmax with temperature 函数来解决这个问题:



我们发现T可以使用梯度下降学习得到,这样减少了调试的麻烦。


有大量的工作说明,与low-level features结合可以显著的提升分割的精度,其做法如下:



f是在上采样之后的卷积操作,其计算量依赖于特征图的空间大小,这样做会显著增加计算量。得益于DUpsample,我们可以使用下列操作来减少计算量:



这样做不仅保证了在低分辨率下的有效性,而且减少了计算量,同时允许任意level feature的融合。


只有使用了DUpsample,上述操作才变得可行,否则语义分割的精度会被双线性插值限制。


3 Experiments

本次实验使用以下两种数据集:PASCAL VOC 2012 和 PASCAL Context benchmark. 我们使用ResNet-50或Xception-50作为我们的backbone,具体训练细节详见论文。


首先我们设计实验说明双线性插值的上限远远低于DUpsample。我们搭建一个简易网络实现auto-encoder,其中上采样方式分别使用双线性插值与DUpsample, 输入分别为ground_truth,得到下表中的mIOU*,这个指标代表上采样方法的上限。同时我们使用ResNet50作为主干网络,输入为raw image去实现语义分割,得到下表中的mIOU:



通过上表我们可以发现:1) 在相同条件下,DUpsampling效果优于bilinear。2)DUpsampling在output_stride=32的情况下效果与bilinear在output_stride=16的情况下结果相当。


接下来我们设计实验说明融合不同的low-level特征对结果的影响,如下表所示:



值得说明的是,并不是所有与low-level feature的融合都会提升结果,例如conv1_3,因为其结果不够鲁棒。因此和哪一层low-level feature相结合对语义分割的结果有很大的影响。


接下来我们设计实验与双线性插值进行比较:



可以看到我们的方法优于传统的双线性插值上采样方法。同时我们验证了不同的softmax对结果的影响,在没有使用softmax with tenperature的情况下只有69.81的mIOU(这里没设置消融实验有些疑惑,感觉不同的softmax对实验结果影响挺大的)。



最后将我们的方法与最新的模型进行比较,结果如下(分别为PASCAL VOC与PASCAL context):




我们的方法在只用deeplabv3+ 30%的计算量的情况下,超越了当前所有的方法。



总的来说,我觉得这个论文提出的想法很有趣,是一篇很有insight的论文。

推荐阅读

CVPR2019 | R-MVSNet: 一个高精度高效率的三维重建网络

CVPR2019 | SiamMask:视频跟踪最高精度

最近三年开源「语义SLAM/分割/建模」方案介绍

超详细干货 | 三维语义分割概述及总结


关注:计算机视觉life,一起探索计算机视觉新世界~

觉得有用,给个好看啦~  

登录查看更多
48

相关内容

【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
医学图像分割的深度学习解决方案综述
专知会员服务
86+阅读 · 2020年2月14日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
近期必读的5篇 CVPR 2019【图卷积网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
CVPR2019 | 全景分割:Attention-guided Unified Network
极市平台
9+阅读 · 2019年3月3日
干货 | 万物皆可「计算机视觉」
AI科技评论
6+阅读 · 2019年2月10日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
DeepLabv3+:语义分割领域的新高峰
极市平台
4+阅读 · 2018年3月3日
专栏 | CVPR 2017论文解读:特征金字塔网络FPN
机器之心
8+阅读 · 2017年7月25日
Learning Dynamic Routing for Semantic Segmentation
Arxiv
8+阅读 · 2020年3月23日
Arxiv
4+阅读 · 2019年8月7日
Arxiv
7+阅读 · 2018年12月10日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关资讯
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
DeepLabv1 & DeepLabv2 - 空洞卷积(语义分割)
AI研习社
12+阅读 · 2019年3月25日
CVPR2019 | 全景分割:Attention-guided Unified Network
极市平台
9+阅读 · 2019年3月3日
干货 | 万物皆可「计算机视觉」
AI科技评论
6+阅读 · 2019年2月10日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
DeepLabv3+:语义分割领域的新高峰
极市平台
4+阅读 · 2018年3月3日
专栏 | CVPR 2017论文解读:特征金字塔网络FPN
机器之心
8+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员