Image restoration encompasses fundamental image processing tasks that have been addressed with different algorithms and deep learning methods. Classical restoration algorithms leverage a variety of priors, either implicitly or explicitly. Their priors are hand-designed and their corresponding weights are heuristically assigned. Thus, deep learning methods often produce superior restoration quality. Deep networks are, however, capable of strong and hardly-predictable hallucinations. Networks jointly and implicitly learn to be faithful to the observed data while learning an image prior, and the separation of original and hallucinated data downstream is then not possible. This limits their wide-spread adoption in restoration applications. Furthermore, it is often the hallucinated part that is victim to degradation-model overfitting. We present an approach with decoupled network-prior hallucination and data fidelity. We refer to our framework as the Bayesian Integration of a Generative Prior (BIGPrior). Our BIGPrior method is rooted in a Bayesian restoration framework, and tightly connected to classical restoration methods. In fact, our approach can be viewed as a generalization of a large family of classical restoration algorithms. We leverage a recent network inversion method to extract image prior information from a generative network. We show on image colorization, inpainting, and denoising that our framework consistently improves the prior results through good integration of data fidelity. Our method, though partly reliant on the quality of the generative network inversion, is competitive with state-of-the-art supervised and task-specific restoration methods. It also provides an additional metric that sets forth the degree of prior reliance per pixel. Indeed, the per pixel contributions of the decoupled data fidelity and prior terms are readily available in our proposed framework.


翻译:图像恢复包含基本的图像处理任务, 这些任务已经通过不同的算法和深层学习方法得到解决。 经典恢复算法会以隐含或明确的方式利用各种前科。 它们的前科是手工设计的, 对应的重量是粗略分配的。 因此, 深层次的学习方法往往能产生较高的恢复质量。 深层次的网络能够产生强烈和几乎难以预测的幻觉。 网络联手并隐含地学会忠实于观测到的数据, 同时学习之前的图像, 然后将原始和美化的数据分解到下游是不可能的。 这限制了它们在恢复应用中的广泛采用。 此外, 这些前层的修补算法往往也是修饰的。 我们用分解的网络前端的精度和数据忠度来分析我们之前的网络的精度。 我们用一个不断的网络化方法来改进我们之前的基因整合方法。 我们的精度, 之前的网络的精度和前端的精度的精度分析方法通过之前的基因恢复方法来分析我们之前的精度。 我们的精度的精度, 之前的网络的精度的精度化方法通过前端的精度的精度分析方法, 将我们之前的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度, 在之前的精度的精度的精度结构的精度的精度的精度结构的精度的精度分析方法在前的精度上, 通过前端的精度的精度的精度的精度的精度结构的精度的精度结构的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度上, 我们的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度的精度, 在前的精度的精度上, 我们的精度的精度的精度的精度的精度的精度的精度的精度的精度在前的精度的精度的精度上, 在前的精度的精度的精度的精度的精度

0
下载
关闭预览

相关内容

如何撰写好你的博士论文?CMU-Priya博士这30页ppt为你指点
专知会员服务
55+阅读 · 2020年10月30日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
人工智能 | PRICAI 2019等国际会议信息9条
Call4Papers
6+阅读 · 2018年12月13日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年3月3日
Arxiv
19+阅读 · 2021年1月14日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Arxiv
15+阅读 · 2018年4月3日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
人工智能 | PRICAI 2019等国际会议信息9条
Call4Papers
6+阅读 · 2018年12月13日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员