Video frame interpolation can up-convert the frame rate and enhance the video quality. In recent years, although the interpolation performance has achieved great success, image blur usually occurs at the object boundaries owing to the large motion. It has been a long-standing problem, and has not been addressed yet. In this paper, we propose to reduce the image blur and get the clear shape of objects by preserving the edges in the interpolated frames. To this end, the proposed Edge-Aware Network (EA-Net) integrates the edge information into the frame interpolation task. It follows an end-to-end architecture and can be separated into two stages, \emph{i.e.}, edge-guided flow estimation and edge-protected frame synthesis. Specifically, in the flow estimation stage, three edge-aware mechanisms are developed to emphasize the frame edges in estimating flow maps, so that the edge-maps are taken as the auxiliary information to provide more guidance to boost the flow accuracy. In the frame synthesis stage, the flow refinement module is designed to refine the flow map, and the attention module is carried out to adaptively focus on the bidirectional flow maps when synthesizing the intermediate frames. Furthermore, the frame and edge discriminators are adopted to conduct the adversarial training strategy, so as to enhance the reality and clarity of synthesized frames. Experiments on three benchmarks, including Vimeo90k, UCF101 for single-frame interpolation and Adobe240-fps for multi-frame interpolation, have demonstrated the superiority of the proposed EA-Net for the video frame interpolation task.


翻译:视频框架间推法可以调换框架率并提升视频质量。 近年来, 虽然内推性能已经取得了巨大成功, 图像模糊通常会由于巨大的运动而在目标边界上出现。 这是一个长期存在的问题, 尚未得到解决 。 在本文中, 我们提议通过保存内推框架的边缘来减少图像模糊, 并获得物体的清晰形状。 为此, 拟议的 Edge- Aware 网络( EA- Net) 将边缘信息整合到框架内插任务中。 它遵循端到端的结构, 并且可以分为两个阶段, 即 emmph{ i. e.} 、 边导流估计和边缘保护框架合成。 具体地说, 在流量估计阶段, 我们开发了三个边缘认知机制, 以强调框架边缘边缘, 以此为辅助性信息, 以提供更多的指导, 提高流动准确性。 在框架内合成阶段, 流动改进模块旨在改进流程图, 并且可以分为两个阶段, 将精细导的电路流和边框架的注意模块, 以调整为双向框架 。,, 将 将 的 将 直判 直判 的 的 的 向 直判 的 直判框架 向 向 向, 的 直判 直判 向 的 的 直判 直判 直判 向 向 向 向 的 向 向 向 的 向 向 的 的 的 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 的 的 向 向 的 向 向 向 向 向 向 向 向 的 向 向 向 向 向 向 向 向 的 的 的 的 的 向 的 的 向 向 向 向 向 向 向 向 向 向 向 向 向 的 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
视频目标检测:Flow-based
极市平台
22+阅读 · 2019年5月27日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
【机器人】机器人PID控制
产业智能官
10+阅读 · 2018年11月25日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Semantic Grouping Network for Video Captioning
Arxiv
3+阅读 · 2021年2月3日
Arxiv
6+阅读 · 2019年4月4日
VIP会员
相关VIP内容
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
相关资讯
视频目标检测:Flow-based
极市平台
22+阅读 · 2019年5月27日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
【机器人】机器人PID控制
产业智能官
10+阅读 · 2018年11月25日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员