In this paper, we consider the task of space-time video super-resolution (ST-VSR), which simultaneously increases the spatial resolution and frame rate for a given video. However, existing methods typically suffer from difficulties in how to efficiently leverage information from a large range of neighboring frames or avoiding the speed degradation in the inference using deformable ConvLSTM strategies for alignment. % Some recent LSTM-based ST-VSR methods have achieved promising results. To solve the above problem of the existing methods, we propose a coarse-to-fine bidirectional recurrent neural network instead of using ConvLSTM to leverage knowledge between adjacent frames. Specifically, we first use bi-directional optical flow to update the hidden state and then employ a Feature Refinement Module (FRM) to refine the result. Since we could fully utilize a large range of neighboring frames, our method leverages local and global information more effectively. In addition, we propose an optical flow-reuse strategy that can reuse the intermediate flow of adjacent frames, which considerably reduces the computation burden of frame alignment compared with existing LSTM-based designs. Extensive experiments demonstrate that our optical-flow-reuse-based bidirectional recurrent network(OFR-BRN) is superior to the state-of-the-art methods both in terms of accuracy and efficiency.


翻译:在本文中,我们考虑了空间时间视频超分辨率(ST-VSR)的任务,该任务同时提高了某一视频的空间分辨率和框架率,然而,现有方法通常在如何有效利用来自一系列相邻框架的信息或者利用可变化的ConvLSTM调整战略避免推断速度下降方面遇到困难。% 最近一些基于LSTM的ST-VSR方法取得了有希望的成果。为了解决现有方法的上述问题,我们建议采用粗到平双向双向双向双向循环神经网络,而不是使用CONLSTM来利用相邻框架之间的知识。具体地说,我们首先使用双向光学流动来更新隐藏状态,然后使用精度精度精度修正模块来改进结果。由于我们可以充分利用大量相邻框架,我们的方法能够更有效地利用当地和全球信息。此外,我们建议采用光学流再利用相邻框架的中间流战略,这样可以大大降低与现有的LSTMTMTM-MTM和双向网络的常规精度设计相比,框架调整的计算负担。我们的光学-光学-光学-光学-光学-光学-光学-光学-光学-光导-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光向-光学-光学-光学-光学-光向-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光向-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光向-光学-光学-光学-光学-光学-光学-光学-向-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光向-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-光学-

0
下载
关闭预览

相关内容

迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
教程推荐 | 机器学习、Python等最好的150余个教程
七月在线实验室
7+阅读 · 2018年6月6日
SRGAN论文笔记
统计学习与视觉计算组
109+阅读 · 2018年4月12日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
教程推荐 | 机器学习、Python等最好的150余个教程
七月在线实验室
7+阅读 · 2018年6月6日
SRGAN论文笔记
统计学习与视觉计算组
109+阅读 · 2018年4月12日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员