Modern handheld devices can acquire burst image sequence in a quick succession. However, the individual acquired frames suffer from multiple degradations and are misaligned due to camera shake and object motions. The goal of Burst Image Restoration is to effectively combine complimentary cues across multiple burst frames to generate high-quality outputs. Towards this goal, we develop a novel approach by solely focusing on the effective information exchange between burst frames, such that the degradations get filtered out while the actual scene details are preserved and enhanced. Our central idea is to create a set of \emph{pseudo-burst} features that combine complimentary information from all the input burst frames to seamlessly exchange information. The pseudo-burst representations encode channel-wise features from the original burst images, thus making it easier for the model to learn distinctive information offered by multiple burst frames. However, the pseudo-burst cannot be successfully created unless the individual burst frames are properly aligned to discount inter-frame movements. Therefore, our approach initially extracts preprocessed features from each burst frame and matches them using an edge-boosting burst alignment module. The pseudo-burst features are then created and enriched using multi-scale contextual information. Our final step is to adaptively aggregate information from the pseudo-burst features to progressively increase resolution in multiple stages while merging the pseudo-burst features. In comparison to existing works that usually follow a late fusion scheme with single-stage upsampling, our approach performs favorably, delivering state of the art performance on burst super-resolution and low-light image enhancement tasks. Our codes and models will be released publicly.


翻译:现代手持装置可以在快速的顺序中获取爆破图像序列。 但是, 个人获得的框架会受到多重退化, 并且由于相机振动和对象动作而出现错误。 Burst 图像恢复的目标是将多个爆破框架的辅助性提示有效地结合起来, 从而产生高质量的输出。 为了实现这一目标, 我们开发了一种新颖的方法, 仅仅侧重于爆破框架之间的有效信息交流, 这样在实际场景细节保存和增强的同时, 将降解过滤出来。 我们的核心想法是创建一套 \ emph{ pseudo- burst} 功能, 将来自所有低输入节奏框架的辅助性信息与无缝交换信息结合起来。 原始爆破图像恢复的假发式显示将频道功能编码, 从而让模型更容易地学习由多个爆破框架提供的独特信息。 然而, 假爆破框架要被过滤出来, 而当实际场景细节保存时, 我们最初的方法是从每个爆破框架中提取预处理的特性, 并且用边端分辨率校准的断裂校准校准校准校准校准校准校准校准模块。 然后, 我们的模拟校正的校正的校正的校正将逐渐到升级的校正, 升级的校正的校正的校正, 升级的校正的校正的校正的校正, 将逐渐化的校正的校正的校正的校正的校正, 将逐步制成成的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正, 将逐渐的校正的校正, 将逐渐的校正的校正的校正将逐渐的校正的校正的校正的校正的校正的校正的校正, 的校正, 的校正的校正, 将不断的校正, 的校正的校正, 将逐渐将逐渐将逐渐将逐渐将逐渐将逐渐将逐渐将逐步制成的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
31+阅读 · 2021年6月12日
模型优化基础,Sayak Paul,67页ppt
专知会员服务
75+阅读 · 2020年6月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月1日
Arxiv
0+阅读 · 2021年11月29日
Arxiv
0+阅读 · 2021年11月26日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员