It is well-known that in inverse problems, end-to-end trained networks overfit the degradation model seen in the training set, i.e., they do not generalize to other types of degradations well. Recently, an approach to first map images downsampled by unknown filters to bicubicly downsampled look-alike images was proposed to successfully super-resolve such images. In this paper, we show that any inverse problem can be formulated by first mapping the input degraded images to an intermediate domain, and then training a second network to form output images from these intermediate images. Furthermore, the best intermediate domain may vary according to the task. Our experimental results demonstrate that this two-stage domain-adapted training strategy does not only achieve better results on a given class of unknown degradations but can also generalize to other unseen classes of degradations better.


翻译:众所周知,在反向问题中,经过端到端培训的网络比培训组所看到的降解模型更适合培训组所见的降解模型,也就是说,它们不完全概括到其他类型的降解。最近,首先绘制由未知过滤器所下映的图像,然后将图像标为双立式下映的图像,然后将图像标为相貌相似的图像,以成功实现超级解析。在本文中,我们显示任何反向问题都可以通过先将输入的退化图像映射到中间域,然后培训第二个网络来形成这些中间图像的输出图像。此外,最佳中间域可能因任务而异。我们的实验结果表明,这一两阶段的域适应培训战略不仅在特定类别的未知降解中取得了更好的效果,而且还可以更好地推广到其他看不见的降解类别。

0
下载
关闭预览

相关内容

最新《生成式对抗网络》简介,25页ppt
专知会员服务
174+阅读 · 2020年6月28日
商业数据分析,39页ppt
专知会员服务
161+阅读 · 2020年6月2日
 【SIGGRAPH 2020】人像阴影处理,Portrait Shadow Manipulation
专知会员服务
29+阅读 · 2020年5月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
5+阅读 · 2021年1月7日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
8+阅读 · 2018年5月1日
VIP会员
Top
微信扫码咨询专知VIP会员