Recently, satellites with high temporal resolution have fostered wide attention in various practical applications. Due to limitations of bandwidth and hardware cost, however, the spatial resolution of such satellites is considerably low, largely limiting their potentials in scenarios that require spatially explicit information. To improve image resolution, numerous approaches based on training low-high resolution pairs have been proposed to address the super-resolution (SR) task. Despite their success, however, low/high spatial resolution pairs are usually difficult to obtain in satellites with a high temporal resolution, making such approaches in SR impractical to use. In this paper, we proposed a new unsupervised learning framework, called "MIP", which achieves SR tasks without low/high resolution image pairs. First, random noise maps are fed into a designed generative adversarial network (GAN) for reconstruction. Then, the proposed method converts the reference image to latent space as the migration image prior. Finally, we update the input noise via an implicit method, and further transfer the texture and structured information from the reference image. Extensive experimental results on the Draper dataset show that MIP achieves significant improvements over state-of-the-art methods both quantitatively and qualitatively. The proposed MIP is open-sourced at http://github.com/jiaming-wang/MIP.


翻译:最近,具有高时分辨率的卫星在各种实际应用中引起了广泛的注意。然而,由于带宽和硬件成本的限制,这类卫星的空间分辨率相当低,在需要空间清晰信息的情景下,在很大程度上限制了其潜力。为了改进图像分辨率,提出了许多基于培训低分辨率对子的办法来应对超分辨率(SR)任务。尽管取得了成功,低/高空间分辨率对子通常很难在具有高时分辨率的卫星上获得,使在SR中使用的这类方法不切实际。在本文件中,我们提出了一个新的不受监督的学习框架,称为“MIP”,在不需要低/高分辨率图像对子的情况下实现SR任务。首先,随机噪音地图被输入到设计好的基因对抗网络(GAN),用于重建。然后,拟议的方法将参考图像转换为隐含式的空间,最后,我们通过隐含的方法更新输入的噪音,进一步传输参考图像中的文本和结构化信息。在Draper数据集上的广泛实验结果表明,MIP在州-ab-p-artal-margal-margal-maria-margyal-margyal-margal-margy/Mas-margy/Mas-margy/Mas-margy-margy-margy-margy-marg-marg-marg-marg-marg-mart-marg-marg-marg-marg-marg-mart-marg-marg-mart-mart-marg-mart-margal-margy_MA/MQ/MQ/MQ/MQ/MQ/MQ/MQ/MA/MA-I/MAQ/MA-I/MASG-I/MAQ/MA-I/MA-I/MA-I/MA-MA-I/MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-SG-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-SG-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA-MA

0
下载
关闭预览

相关内容

图像超分辨率(SR)是提高图像分辨率的一类重要的图像处理技术以及计算机视觉中的视频。
专知会员服务
31+阅读 · 2021年6月12日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【最受欢迎的概率书】《概率论:理论与实例》,490页pdf
专知会员服务
161+阅读 · 2020年11月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
“CVPR 2020 接受论文列表 1470篇论文都在这了
已删除
将门创投
5+阅读 · 2019年8月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
已删除
将门创投
5+阅读 · 2019年8月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员