点击上方“CVer”,选择加"星标"或“置顶”
重磅干货,第一时间送达
其实之前对图像去雾也没有什么深入的理解,只是了解,实现过一些传统的图像去雾方法而已。个人感觉,在CNN模型大流行的今天,已经有很多人忽略了传统算法的发展,以至于你今天去搜索10年前的传统去雾算法或许根本找不到相关资料了,或许这就是网络中的围城吧。今天周六有空来整理一下我所了解到的图像去雾技术的发展,并尝试做一个详细点的综述。
图像去雾在计算机视觉中虽然不像目标检测,语义分割这种任务整天会放在台面上说,但实际上也有大量的研究人员在不断的研究新方法攻克这一充满挑战性的问题。具体来说,图像去雾算法大致可以分为下面这几类。
基于图像增强的去雾算法。基于图像增强的去雾算法出发点是尽量去除图像噪声,提高图像对比度,从而恢复出无雾清晰图像。代表性方法有:直方图均衡化(HLE)、自适应直方图均衡化(AHE)、限制对比度自适应直方图均衡化(CLAHE) 、Retinex算法、小波变换、同态滤波 等等。
基于图像复原的去雾算法。这一系列方法基本是基于大气退化模型,进行响应的去雾处理。代表性算法有:来自何凯明博士的暗通道去雾算法(CVPR 2009最佳论文)、基于导向滤波的暗通道去雾算法、Fattal的单幅图像去雾算法(Single image dehazing) 、Tan的单一图像去雾算法(Visibility in bad weather from a single image) 、Tarel的快速图像恢复算法(Fast visibility restoration from a single color or gray level image) 、贝叶斯去雾算法(Single image defogging by multiscale depth fusion) ,基于大气退化模型的去雾效果普遍好于基于图像增强的去雾算法,后面挑选的传统去雾算法例子也大多是基于图像复原的去雾算法。
基于深度学习的去雾算法。由于CNN近年在一些任务上取得了较大的进展,去雾算法自然也有大量基于CNN的相关工作。这类方法是主要可以分为两类,第一类仍然是于大气退化模型,利用神经网络对模型中的参数进行估计,早期的方法大多数是基于这种思想。第二类则是利用输入的有雾图像,直接输出得到去雾后的图像,也即是深度学习中常说的end2end。
我们后面介绍的一些经典算法例子大多基于雾天退化模型,因此有必要在这里将它讲清楚。
在计算机视觉领域,通常使用雾天图像退化模型来描述雾霾等恶劣天气条件对图像造成的影响,该模型是McCartney首先提出。该模型包括衰减模型和环境光模型两部分。模型表达式为:
其中, 是图像像素的空间坐标, 是观察到的有雾图像, 是待恢复的无雾图像, 表示大气散射系数, 代表景物深度, 是全局大气光,通常情况下假设为全局常量,与空间坐标 无关。
公式(1)中的 表示坐标空间 处的透射率,我们使用 来表示透射率,于是得到公式(2):
由此可见,图像去雾过程就是根据 求解 的过程。要求解出 ,还需要根据 求解出透射率 和全局大气光 。
实际上,所有基于雾天退化模型的去雾算法就是是根据已知的有雾图像 求解出透射率 和全局大气光 。
在3.1节估计出全局大气光值 之后,
根据公式(2)可以得出:
首先可以确定的是 的范围是 , 的范围是 , 的范围是 。 和 是已知的,可以根据 的范围从而确定 的范围。已知的条件有:
根据(4)和(5)推出:
因此初略估计透射率的计算公式:
最后为了保证图片的自然性,增加一个参数 来调整透射率 :
这个算法非常有意义,本人还没来得及复现,先来看看原理。首先,如果想获得更好的去雾效果,就要求去雾后的图像对比度高,并且失真度小。然后对上面的公式(2)做一个变换可以得到:
可以发现, 和 在坐标轴上对应一条直线,其中直线和 轴的交点是 ,和 轴的交点是 。可以看到随着 在 的范围内进行变化, 会对应的产生负数或者超过 ,这就导致了图像失真。因此为了改善这一缺点,论文提出使用下面的等式来衡量失真度。
我们使用均方误差MSE来衡量对比度增强。
其中, 表示平均值, 表示像素点总数,因此我们要求取透射率使得 最小。假设 从 开始,增强是 ,一直到 结束,一共迭代 次,选取其中使得上式最小的值作为该像素点的透射率。
可以想一下,这种做法会导致什么问题?复杂度会增加 倍! 为了改善这一问题,我们可以假设一小块区域的像素的透射率相同,计算每一小块中 的最小值为该块所有像素点的透射率。
如何精细化透射率,典型的有以下几种方法:
上面我们获得了大气光值 以及透射率 ,那么根据雾天退化模型我们就可以获得去雾后的结果图了。一般来说,去雾后的结果图可能会偏暗,因此可以适当进行一些后处理如采用自动对比度增强,亮度增强,伽马校正 (均在公众号分享了)等图像处理方法进行处理,以便得效果更佳的无雾图像。
OK,现在了解了去雾算法的重要理论接下来就直接开始盘点经典算法。
这篇论文主要提出了一个Retinex理论,包含了两个方面的内容:物体的颜色是由物体对长波、 中波和短波光线的反射能力决定的,而不是由反射光强度的绝对值决定的;物体的色彩不受光照 非均匀性的影响,具有一致性 。根据Retinex理论,人眼感知物体的亮度取决于环境的照明和物体表面对照射光的反射,其数学表达式为:
其中, 代表被观察或照相机接收到的图像信号; 代表环境光的照射分量 ; 表示携带图像细节信息的目标物体的反射分量 。
将上式两边取对数,则可抛开入射光的性质得到物体的本来面貌,即有关系式:
这个技术运用到图像处理上,就是针对我们现在已经获得的一幅图像数据 ,计算出对应的 ,则 认为是增强后的图像,现在的关键是如何得到 。Retinex理论的提出者指出这个 可以通过对图像数据 进行高斯模糊得到。
因此,算法流程可以总结为:
具体效果怎么样呢?看张图吧。
原理见:OpenCV图像处理专栏六 | 来自何凯明博士的暗通道去雾算法(CVPR 2009最佳论文)
算法原理:OpenCV图像处理专栏十 | 利用中值滤波进行去雾
这篇论文就更有意思了哦。论文观察到,单幅图像去雾的难点在于图像中包含的关于场景结构等信息非常少,因此很难获得较为全面的信息从而进行去雾。然而,人的大脑在面对一幅图像的时候其实是可以很快的分辨清楚哪里有雾、哪里没有,或者很快分辨清楚近景、远景而不需要其他太多的资料。基于这一思考,作者对很多副有雾图像进行分析发现统计意义上的结论从而提出一个新的思路,通过对很多图像的远景、中景、近景进行分析发现了雾的浓度与亮度和饱和度之差呈正比。
作者通过2幅图像分析了有雾和无雾图像的区别:
我们知道,雾天退化模型可以写成:
从Figure3中可以看到直接的衰减会导致反射能量的减弱,从而导致brightness的低值,也即 。同时,大气光成分会增强brightness的值并且降低饱和度saturation。 总结下来,即为,当雾的程度越大,大气光成分的的影响越大。因此,论文考虑通过研究saturation和brightness之间的差来分析雾的浓度。公式为:
其中 为景深, 为雾浓度, 分别为亮度值和饱和度值。这个公式就是color attenuation prior。然后,作者通过构建训练样本采集了超过500张图像,最后得出了合适的参数。最终公式如下:
最终,参数结果为:
论文地址为:http://ieeexplore.ieee.org/document/7128396/
。
上面列出了一些经典的用传统算法去雾的例子(姑且把它叫作图像去雾的前世),接下来我们看看CNN是如何在这个领域发挥的(图像去雾的今生)。
论文和代码下载官方地址:http://caibolun.github.io/DehazeNet/
这篇论文是较早使用深度学习来进行去雾的网络,它是一个端到端的模型,利用CNN来对大气退化模型中的 进行估计。模型输入雾图,输出透射率 映射图,然后通过大气退化模型来恢复无雾图像。采用深度CNN结构(4层),并提出了一种新的非线性激活函数。提高了恢复图像的质量。
DehazeNet的贡献如下:
具体来说,作者先对暗通道去雾,最大对比度去雾(Maximum Contrast,MC,论文名为:Visibility in bad weather from a single image),基于颜色衰减先验去雾(Color Attenuation Prior,CAP,论文名为:A fast single image haze removal algorithm using color attenuation prior),基于色度不一致去雾(A fast single image haze removal algorithm using color attenuation prior)这些方法做了介绍,然后作者结合上面的方法进行网络设计,网络结构主要分成4大部分:
网络结构如下图所示。
这里的特征提取和普通的CNN不同,这里采用“卷积+Maxout”的结构作为网络第一层。如下面公式所示:
其中 表示输出的特征, 代表第 个, 是是指第一层, 是指 个层进行 操作。 和 是权重和偏置。第一层是特征提取层,即提取有雾图像特征。本文中使用了 个滤波器,通过 的激活函数,每四个输出一张图。这里不 ,输入是 三通道的块。输出的是四个 ,每一个代表一种特征。
作者指出,“卷积+Maxout”等价于传统的手工去雾特征。当W1是反向(Opposite)滤波器,通道的最大等价于通道的最小值,等价于暗通道先验(DCP);当W1是环形(Round)滤波器, 等价于对比度提取,等价于最大对比度(MC);当W1同时包含反向(Opposite)滤波器和全通(All-pass)滤波器,等价于RGB到HSV颜色空间转换,等价于颜色衰减先验(CAP)。此外,从机器学习角度,Maxout是一种样条函数,具有更强的非线性拟合能力,如图(d)。
使用空间多个尺度的卷积。分别使用 个 的卷积核和特征图进行卷积,最后一共获得 个 大小的特征图。
根据假设,透射率具有局部不变性,所以使用了一个Max Pooling层( 大小)抑制透射率的估计噪声。
大气透射率 是一个概率(0到1),不可能无穷大,也不可能无穷小。受到Sigmoid和ReLU激励函数的启发,提出了新的激活函数(Bilateral Rectified Linear Unit,BReLU),在双边约束的同时,保证局部的线性。激活函数图如下:
要获取自然场景的有雾和无雾的图像是十分困难的,所以作者使用了基于物理雾霾形成模型的综合训练集。从网络上收集的图像中随机抽样 个大小为 的无雾霾 。对于每个 ,作者统一采样 个 以生成 个模糊 ,这里为了减小变量学习的不确定性,将大气光 设置为 ,共生成 个 的数据。损失函数被定义为:
论文名为:All-in-One Network for Dehazing and Beyond
这篇文章文并没有单独估计 和大气光 ,而是通过轻量级的CNN直接生成清晰的图像,这种端到端的设计使得其可以嵌入到其他的模型中,比如说物体检测Faster-RCNN。
这篇文章的贡献如下:
由雾天退化模型知可以知道,表达式中有两个未知数大气光 和透射率 ,作者提出将这两个未知数化为一个,即用 将 与 相统一。其中, 是具有默认值的恒定偏差。
网络结构如下:
其中,K-estimation Module是利用输入图像 对未知变量 进行估计。而Clean image generation module 是将估计所得的 作为自适应变量输入网络,得到 。K-estimation Module 有点意思,作者是受到DehazeNet,MSCNN的启发,使用五个卷积层,并通过融合不同大小的滤波器形成多尺度特征。值得注意的是,AOD-Net的每个卷积层仅仅使用了 个卷积核。
论文标题:Densely Connected Pyramid Dehazing Network
论文的贡献如下:
具体而言,对于产生 图的网络,采用的是多层金字塔池化模块。这里从DenseNet里直接取前三个DenseBlock和相应的下采样层作为Encode模块,然后同样使用DenseBlock进行上采样。这样做的目的是可以通过金字塔池化获得全局的信息,Dense模块可以让利于信息流动,加速收敛。同时为了,为了最后的输出获得多个scale的特征,同时保留这些特征的局部信息而不是只获得全局信息,这里使用了一个多scale的pooling层,将不同级别的特征pooling到同一个尺度下,然后进行上采样。网络示意图如下所示:
而对于 ,使用一个8个Block的UNet。
论文标题:Gated Context Aggregation Network for Image Dehazing and Deraining 这篇论文用GAN网络,实现可端到端的图像去雾,本文的重点在于解决了网格伪影(grid artifacts)的问题,该文章的方法在PSNR和SSIM的指标上,有了极大的提升,非常值得借鉴。
本文贡献如下:
网络结构如Figure1所示,三个卷积模块作为编码部分,一个反卷积和两个卷积作为解码部分在二者之间插入多个smoothed dilated resblocks。
从昨天的推文【综述】神经网络中不同种类的卷积层 我们了解了空洞卷积。但空洞卷积有一个缺点,它会产生网格伪影,针对这一问题,作者用了一个简单的分离卷积。
在上图中,上面这部分表示的是原始的空洞卷积,从图中色块可以看出,经过空洞率大于 的空洞卷积后,输出的特征图中相邻的特征值与输入特征图是完全独立的,不存在相互依赖的关系,而我们知道图像是局部相关的。因此,特征层也应当保留此特性。所以下面部分的图就是Smoothed Dilated Convolution了,在执行空洞卷积之前,做了一次核为 的分离卷积,卷积的参数共享,经过该层卷积之后,每一个特征点都融合了周围 大小的特征。该操作仅仅增加了 大小的参数,却能有效的解决网格伪影问题。
这个子网络主要是融合了不同层次的特征信息,和ASFF太像了。。。之前的网络都是直接添加直连(shortcut)操作进行信息融合,这里的门控融合单元为不同层次的特征分别学习了权重,最后加权得到融合的特征层。
论文标题:Towards Perceptual Image Dehazing by Physics-based Disentanglement and Adversarial Training
作者认为之前基于先验知识的去雾,缺点在于先验知识不是在任何情况都满足的(比如说多光源,大雾),并且不是监督训练的。而基于CNN的去雾需要训练集是成对的,即同时有有雾图像与无雾图像。而一个有效的去雾模型应该能够学习无雾图像到有雾图像的映射,无需使用成对监督。并且人类对去雾后的图像和没去雾的图像的感知应当是一致的,基于此,作者提出这个Disentangled Dehazing Network,主要贡献如下:
一句话总结,将GAN用于去雾。
论文引入基于解耦与重建的物理模型,目标是将有雾图像解耦为隐藏特征值,再利用隐藏特征值重建图像。网络的总体结构如Figure1所示。
损失函数包含三部分,重建损失,对抗损失,正则化损失。
最后,总的损失函数为:
目标函数为:
经过网络处理后,可以得到两个去雾后的图像,一个是生成器 的直接输出,另一个是利用估计的 和 来获得的。这两种方法得到的去雾图像各有优劣,其中生成器输出得到的图像倾向于生成具有更多纹理细节的图像,并且在感知上更加清晰,但是其易于受到噪声的影响并且会有undesirable artifacts,而用后种方式得到的图像更平滑,所以作者将二者进行了混合。公式如下:
论文题目:Enhanced CycleGAN for Single Image
这篇论文是基于《Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks》来做改进的,前者设计了一个循环的对抗网络学习图像风格的迁移,使用不成对的图像来训练网络。这篇论文在其基础上加入了循环感知一致损失,对图片的特征进行监督。其实可以总结为一句话,改造CycleGAN用于去雾。
没兴趣去看这篇论文了,就不细讲了,感兴趣可以去读一读。
今天是周六,花了很长的时间来盘点我所认识的图片去雾,可以看到这并不是一件简单的事。通过对图像去雾的前世今身的了解,相信你和我一样对图像去雾有了更好一点点的认识了吧。
https://blog.csdn.net/u013684730/article/details/76640321
https://zhuanlan.zhihu.com/p/28942127
https://blog.csdn.net/Julialove102123/article/details/80199276
https://zhuanlan.zhihu.com/p/47386292
https://kevinj-huang.github.io/2019/03/03/%E5%8D%9A%E5%AE%A287/
http://www.cnblogs.com/jingyingH/p/10061286.html
https://blog.csdn.net/suixinsuiyuan33/article/details/7945106
推荐阅读
2020年AI算法岗求职群来了(含准备攻略、面试经验、内推和学习资料等)
重磅!CVer-去雾 微信交流群已成立
扫码添加CVer助手,可申请加入CVer-去雾 微信交流群,同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流等群。
一定要备注:研究方向+地点+学校/公司+昵称(如去雾+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加群
▲长按关注我们
麻烦给我一个在看!