Previous methods decompose blind super resolution (SR) problem into two sequential steps: \textit{i}) estimating blur kernel from given low-resolution (LR) image and \textit{ii}) restoring SR image based on estimated kernel. This two-step solution involves two independently trained models, which may not be well compatible with each other. Small estimation error of the first step could cause severe performance drop of the second one. While on the other hand, the first step can only utilize limited information from LR image, which makes it difficult to predict highly accurate blur kernel. Towards these issues, instead of considering these two steps separately, we adopt an alternating optimization algorithm, which can estimate blur kernel and restore SR image in a single model. Specifically, we design two convolutional neural modules, namely \textit{Restorer} and \textit{Estimator}. \textit{Restorer} restores SR image based on predicted kernel, and \textit{Estimator} estimates blur kernel with the help of restored SR image. We alternate these two modules repeatedly and unfold this process to form an end-to-end trainable network. In this way, \textit{Estimator} utilizes information from both LR and SR images, which makes the estimation of blur kernel easier. More importantly, \textit{Restorer} is trained with the kernel estimated by \textit{Estimator}, instead of ground-truth kernel, thus \textit{Restorer} could be more tolerant to the estimation error of \textit{Estimator}. Extensive experiments on synthetic datasets and real-world images show that our model can largely outperform state-of-the-art methods and produce more visually favorable results at much higher speed. The source code is available at https://github.com/greatlog/DAN.git.


翻译:先前的方法将盲目超级解析(SR)问题分解成两个相继步骤 :\ textit{ i} 估计低分辨率(LR) 图像和/ textit{ ii} 的模糊内核, 以估计内核为基础, 恢复SR 图像。 这个两步解决方案涉及两个独立训练的模型, 彼此可能不兼容。 第一个步骤的微小估计错误可能导致第二个步骤的严重性能下降。 而另一方面, 第一步只能使用来自 LR 图像的有限信息, 这使得很难预测高度准确的模糊内核 。 走向这些问题, 而不是单独考虑这两个步骤, 我们采用交替的优化算法, 可以估计模糊的内核, 并在一个单一模型中恢复SR 。 具体地, 我们设计两个进化的神经模块, 即 textit{ retorr} 和 textitaltremodral dislations, 可以在源中产生更清晰的内核流/ trentrentral 。

0
下载
关闭预览

相关内容

专知会员服务
109+阅读 · 2020年3月12日
专知会员服务
159+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年1月8日
Arxiv
0+阅读 · 2021年1月8日
Arxiv
0+阅读 · 2021年1月7日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
5+阅读 · 2018年5月16日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年1月8日
Arxiv
0+阅读 · 2021年1月8日
Arxiv
0+阅读 · 2021年1月7日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
5+阅读 · 2018年5月16日
Top
微信扫码咨询专知VIP会员