We propose a Deep Unsupervised Trajectory-based stabilization framework (DUT) in this paper. Traditional stabilizers focus on trajectory-based smoothing, which is controllable but fragile in occluded and textureless cases regarding the usage of hand-crafted features. On the other hand, previous deep video stabilizers directly generate stable videos in a supervised manner without explicit trajectory estimation, which is robust but less controllable and the appropriate paired data are hard to obtain. To construct a controllable and robust stabilizer, DUT makes the first attempt to stabilize unstable videos by explicitly estimating and smoothing trajectories in an unsupervised deep learning manner, which is composed of a DNN-based keypoint detector and motion estimator to generate grid-based trajectories, and a DNN-based trajectory smoother to stabilize videos. We exploit both the nature of continuity in motion and the consistency of keypoints and grid vertices before and after stabilization for unsupervised training. Experiment results on public benchmarks show that DUT outperforms representative state-of-the-art methods both qualitatively and quantitatively.


翻译:在本文中,我们提议了一个深、无监督的轨迹稳定框架(DUT),传统稳定器侧重于基于轨迹的滑动,这种滑动在人工制作特征的使用方面可以控制,但在隐蔽和没有纹理的情况下是脆弱的。另一方面,以前的深视频稳定器直接以监督的方式生成稳定的视频,而没有明确的轨迹估计,这种估计是稳健的,但控制不力,并且很难获得适当的对称数据。要建立一个可控制和稳健的稳定器,DUT首次试图稳定不稳定的视频,方法是以不受监督的深层学习方式明确估算和平滑轨迹,这种方式由基于 DNNN 的键点探测器和运动估计器组成,以生成基于网格的轨迹,以及基于DNN的轨迹滑动器组成,以稳定视频。我们利用运动连续性的性质以及关键点和电网脊的连贯性,在稳定之前和之后进行不受监督的培训。关于公共基准的实验结果显示,DUT在质量和数量两方面都比代表州-艺术方法。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
338+阅读 · 2020年1月27日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
4+阅读 · 2017年11月1日
Arxiv
0+阅读 · 2021年1月18日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
4+阅读 · 2017年11月1日
Top
微信扫码咨询专知VIP会员