【CVPR2022】Dropout在图像超分任务中的重煥新生

2022 年 3 月 5 日 专知

摘要

在分类、跟踪、检测等高等级计算机视觉任务中,Dropout操作被广泛用于降低模型在训练集上过拟合的风险,但这一操作在图像超分辨等底层视觉任务中仍未得到充分的探索。作为一种经典的回归问题,图像超分辨任务不仅值域连续,其性能也与Dropout的利用息息相关。本文的核心思想是Dropout同样可以适用于底层计算机视觉任务,只是对于dropout的加入方式需要进行细微的调整,合理的应用dropout能够带来网络性能的提升。因此,本文作者进行了细致的实验与分析,证实合理使用dropout有益于超分模型性能提升,并改善其泛化性能 。

 

 

动机

图像超分辨率(SR)是一种典型的底层计算机视觉任务,旨在从低分辨率输入恢复高分辨率图像。近年来,得益于强大的深度学习网络,深度SR模型可以轻松地拟合训练数据并在合成数据集上取得较好的性能。然而,当这些模型被应用于真实图像时,过拟合问题逐渐得到了研究人员的关注。

直观来看,针对过拟合问题提出的Dropout操作似乎只适用于分类、跟踪、检测等高等级计算机视觉任务,在图像超分辨模型中使用Dropout操作会使得输出中的部分表观像素缺失。然而,本文作者通过两种方法:通道显著图(channel saliency map)与深度退化表观(deep degradation representation)进行分析,结果证明引入dropout可以大幅提升模型的泛化性能 ,甚至可以将SRResNet的提升到优于RRDB的程度(如下图)。在此基础上,作者讨论了两个重点:一是如何加入dropout以提高超分网络性能,二是如何对dropout带来网络性能的提升。

 

方法

作者使用SRResNet作为基准模型探索如何进入Dropout操作,共考虑了三个因素:加入的位置,加入的比例,加入的方式。下图给出了dropout加入位置的示意图:

  • dropout before the last-conv ,见下图a,这也是本文最终的发现与结论;

  • dropout at middle of network ,见下图a;

  • dropout in residual network ,见下图c与b。

dropout的比例设置为0.1,0.2,0.3,其方式分为element-wise对元素进行drop,以及channel-wise对特征通道进行drop。

 

实验结果

  • 如何加入Dropout

本文作者在双线性退化图像(bicubic)上探索Dropout的使用方式。下图给出了关于dropout使用位置、概率以及形式的实验结果对比,从中可以看到:

不同的dropout位置具有完全不同的性能,a方案last-conv性能最佳 。

channel-wise的dropout比Element-wise的dropout具有更好的性能;

更大的dropout比例会带来负面影响,10%是一个不错的选择。

last-conv+channel的实用组合可以带来有效且鲁棒的模型性能。

 

  • 复合退化设定

下表给出了不同配置下使用dropout前后的性能对比,从中可以看到:引入dropout可以大幅改善模型在多退化配置下的性能。

  • Dropout导致性能提升的原因

通过实验,作者给出了PSNR与显著性图之间的相关性。当对某些特征进行mask后,我们可以得到不同的PSNR值,低PSNR对应了更亮的显著性图,更亮的只意味着对超分结果的更大影响。很明显:不同特征对于最终的结果影响程度是不一样的 。

从上述实验结果可以发现,Dropout操作能够平衡特征之间的信息量:

而引入Dropout后,本文采用DDR工具进行了泛化性分析。下图每一个点都代表对应不同退化方式的一张图,网络如果有较好的泛化性能,那么对于同一张高分辨率图,基于不同退化方式生成的low-resolution图,网络都能进行较好地超分。反映在下面的聚类图上,由于有5种退化方式,如果每个退化方式的点都非常靠近,聚成一类,表明网络更有专门解决这种退化方式的能力,例如(a)(b)图中的绿色点。

结论

在本研究中,作者探讨了在SR任务中dropout的用法和工作机理。具体地说,本文发现使用last-conv方法添加dropout可以有效地提高在多退化设置下的SR网络性能。在工作机制上,本文发现dropout确实提高了信道的表示能力和网络的泛化能力。

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“RDSR” 就可以获取【CVPR2022】 Dropout在图像超分任务中的重煥新生》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
0

相关内容

【CVPR2022】整合少样本学习的分类和分割
专知会员服务
26+阅读 · 2022年3月31日
【CVPR2022】 Dropout在图像超分任务中的重煥新生
专知会员服务
18+阅读 · 2022年3月5日
专知会员服务
44+阅读 · 2021年6月1日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
专知会员服务
17+阅读 · 2021年3月16日
【CVPR2021】神经网络中的知识演化
专知会员服务
24+阅读 · 2021年3月11日
专知会员服务
21+阅读 · 2021年3月9日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
59+阅读 · 2020年6月25日
让Dropout在图像超分领域重焕光彩!
极市平台
0+阅读 · 2021年12月28日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
19+阅读 · 2020年12月23日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
【CVPR2022】整合少样本学习的分类和分割
专知会员服务
26+阅读 · 2022年3月31日
【CVPR2022】 Dropout在图像超分任务中的重煥新生
专知会员服务
18+阅读 · 2022年3月5日
专知会员服务
44+阅读 · 2021年6月1日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
专知会员服务
17+阅读 · 2021年3月16日
【CVPR2021】神经网络中的知识演化
专知会员服务
24+阅读 · 2021年3月11日
专知会员服务
21+阅读 · 2021年3月9日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
59+阅读 · 2020年6月25日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员