Almost all existing methods for image restoration are based on optimizing the mean squared error (MSE), even though it is known that the best estimate in terms of MSE may yield a highly atypical image due to the fact that there are many plausible restorations for a given noisy image. In this paper, we show how to combine explicit priors on patches of natural images in order to sample from the posterior probability of a full image given a degraded image. We prove that our algorithm generates correct samples from the distribution $p(x|y) \propto \exp(-E(x|y))$ where $E(x|y)$ is the cost function minimized in previous patch-based approaches that compute a single restoration. Unlike previous approaches that computed a single restoration using MAP or MMSE, our method makes explicit the uncertainty in the restored images and guarantees that all patches in the restored images will be typical given the patch prior. Unlike previous approaches that used implicit priors on fixed-size images, our approach can be used with images of any size. Our experimental results show that posterior sampling using patch priors yields images of high perceptual quality and high PSNR on a range of challenging image restoration problems.


翻译:几乎所有现有的图像恢复方法都基于优化平均平方差错(MSE), 尽管已知以MSE为单位的最佳估计可能会产生高度非典型的图像, 因为对特定噪音图像有许多可信的修复方法。 在本文中, 我们展示了如何将自然图像补丁的明确前科结合起来, 以便从图像退化后的完整图像的远端概率中取样。 我们证明我们的算法生成了来自分配 $p(x ⁇ y)\ propto exp (-E(x ⁇ y))$(-E(x ⁇ y)) 的正确样本, 其中, $E(x ⁇ y)$( $) 是以前计算单一恢复的补丁法中的成本函数最小化了。 与以前使用 MAP 或 MMSE 来计算单一恢复的方法不同, 我们的方法明确了恢复图像的不确定性, 并保障了恢复图像中的所有补齐的典型性。 与以前在固定尺寸图像上使用隐含前科前科的方法不同, 我们的方法可以用任何大小的图像来使用。 我们的实验结果显示, 利用高感官图像的恢复范围的近影取样。

0
下载
关闭预览

相关内容

专知会员服务
19+阅读 · 2021年2月8日
【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
249+阅读 · 2020年5月18日
自动结构变分推理,Automatic structured variational inference
专知会员服务
40+阅读 · 2020年2月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年10月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月5日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年10月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员