Prior probability models are a fundamental component of many image processing problems, but density estimation is notoriously difficult for high-dimensional signals such as photographic images. Deep neural networks have provided state-of-the-art solutions for problems such as denoising, which implicitly rely on a prior probability model of natural images. Here, we develop a robust and general methodology for making use of this implicit prior. We rely on a statistical result due to Miyasawa (1961), who showed that the least-squares solution for removing additive Gaussian noise can be written directly in terms of the gradient of the log of the noisy signal density. We use this fact to develop a stochastic coarse-to-fine gradient ascent procedure for drawing high-probability samples from the implicit prior embedded within a CNN trained to perform blind (i.e., with unknown noise level) least-squares denoising. A generalization of this algorithm to constrained sampling provides a method for using the implicit prior to solve any linear inverse problem, with no additional training. We demonstrate this general form of transfer learning in multiple applications, using the same algorithm to produce state-of-the-art levels of unsupervised performance for deblurring, super-resolution, inpainting, and compressive sensing.
翻译:先前的概率模型是许多图像处理问题的一个基本组成部分, 但对于像照片图像这样的高维信号来说, 密度估计是十分困难的。 深神经网络为解密等问题提供了最先进的解决方案, 隐含地依赖自然图像的先前概率模型。 在这里, 我们开发了一种使用先前隐含的图像模型的稳健和一般方法。 我们依赖由于Miyasawa(1961年)而得出的统计结果。 Miyasawa( 1961年) 显示, 去除添加性高斯噪音的最差的解决方案可以直接用噪音信号密度日志的梯度来写成。 我们用这个事实来开发一种最尖端的解析性粗度梯度的解决方案, 用于绘制以前隐含于CNN的隐含性样本, 以便进行盲目的( 噪音水平未知的) 。 将这种受限制的抽样算法提供了一种方法, 使用隐含的预言来解决任何线性反问题, 没有额外的培训。 我们用这个一般的转移形式在多种应用中进行学习, 使用同一的超向分辨率, 的超分辨率, 和 制 制 度 度 度 度 度 的 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度