The target of space-time video super-resolution (STVSR) is to increase both the frame rate (also referred to as the temporal resolution) and the spatial resolution of a given video. Recent approaches solve STVSR using end-to-end deep neural networks. A popular solution is to first increase the frame rate of the video; then perform feature refinement among different frame features; and last increase the spatial resolutions of these features. The temporal correlation among features of different frames is carefully exploited in this process. The spatial correlation among features of different (spatial) resolutions, despite being also very important, is however not emphasized. In this paper, we propose a spatial-temporal feature interaction network to enhance STVSR by exploiting both spatial and temporal correlations among features of different frames and spatial resolutions. Specifically, the spatial-temporal frame interpolation module is introduced to interpolate low- and high-resolution intermediate frame features simultaneously and interactively. The spatial-temporal local and global refinement modules are respectively deployed afterwards to exploit the spatial-temporal correlation among different features for their refinement. Finally, a novel motion consistency loss is employed to enhance the motion continuity among reconstructed frames. We conduct experiments on three standard benchmarks, Vid4, Vimeo-90K and Adobe240, and the results demonstrate that our method improves the state of the art methods by a considerable margin. Our codes will be available at https://github.com/yuezijie/STINet-Space-time-Video-Super-resolution.


翻译:空间时间视频超分辨率(STVSR)的目标是提高某一视频的框架率(也称为时间分辨率)和空间分辨率(STVSR),同时认真利用不同框架特征之间的时间相关性;在此过程中,仔细利用不同框架特征之间的时间相关性;尽管不同(空间)决议的特征也非常重要,但并未强调这些特征之间的空间相关性;在本文件中,我们提议建立一个空间时空特征互动网络,通过利用不同框架和空间分辨率特征之间的空间和时间相关性,加强STVSR。具体地说,空间时框架间插模块将同时和互动地引入低分辨率和高分辨率中间框架特征。此后,将分别部署空间时际本地和全球改进模块,以利用不同特征之间的空间时空相关性进行改进。最后,我们利用空间时空特征互动空间空间互动互动网络互动网络互动网络互动网络网络,以利用空间-时间特征互动网络特征互动网络互动网络互动网络互动网络互动网络,通过利用不同框架和空间分辨率特征之间的空间和时间相关性关系加强STVSRVSR。最后,创新的动态一致性损失将用来加强我们的标准-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间-空间定位-空间定位-空间-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间-空间-空间-空间-空间-空间定位-空间定位-空间-空间-空间定位-空间-空间-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间定位-空间

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员