Learning-based methods have enabled the recovery of a video sequence from a single motion-blurred image or a single coded exposure image. Recovering video from a single motion-blurred image is a very ill-posed problem and the recovered video usually has many artifacts. In addition to this, the direction of motion is lost and it results in motion ambiguity. However, it has the advantage of fully preserving the information in the static parts of the scene. The traditional coded exposure framework is better-posed but it only samples a fraction of the space-time volume, which is at best 50% of the space-time volume. Here, we propose to use the complementary information present in the fully-exposed (blurred) image along with the coded exposure image to recover a high fidelity video without any motion ambiguity. Our framework consists of a shared encoder followed by an attention module to selectively combine the spatial information from the fully-exposed image with the temporal information from the coded image, which is then super-resolved to recover a non-ambiguous high-quality video. The input to our algorithm is a fully-exposed and coded image pair. Such an acquisition system already exists in the form of a Coded-two-bucket (C2B) camera. We demonstrate that our proposed deep learning approach using blurred-coded image pair produces much better results than those from just a blurred image or just a coded image.


翻译:以学习为基础的方法使得能够从单一的运动模糊图像或单一的编码暴露图像中恢复视频序列。 从单一的运动模糊图像或单一的编码暴露图像中恢复视频序列成为非常糟糕的问题,从单一的移动模糊图像中恢复视频是一个非常糟糕的问题,回收的视频通常有许多工艺品。除此之外,运动的方向已经丢失,并导致运动的模糊性。然而,传统的编码暴露框架的优点是完全保存在现场静态部分中的信息。传统的编码暴露框架是更好地保存的,但它只是样板空间时间量的一小部分,最多是空间时间量的50 % 。在这里,我们提议使用完全暴露(bloberred)图像中的辅助信息,同时使用加密(blobred)图像中的辅助信息,在没有任何动作模糊的图像中恢复一个高度忠诚的视频。我们的框架是一个共享的编码,然后有一个关注模块,有选择地将完全暴露的图像中的空间信息与来自编码的时空信息结合起来,然后是超级解析,然后是恢复一个非模糊的高级高清晰度高清晰度的图像。我们提议的代码的编码格式的输入系统,现在已经存在了一种完全的编码。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
49+阅读 · 2020年6月14日
专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Single-frame Regularization for Temporally Stable CNNs
Arxiv
5+阅读 · 2018年12月18日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
Arxiv
13+阅读 · 2018年4月6日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
专知会员服务
49+阅读 · 2020年6月14日
专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Top
微信扫码咨询专知VIP会员