Motion Selective Prediction for Video Frame Synthesis

2019 年 2 月 22 日 CreateAMind

https://www.arxiv-vanity.com/papers/1812.10157/





抽象

现有的条件视频预测方法从大型数据库训练网络并概括为先前未见过的数据。我们采取相反的立场,并引入一个模型,该模型从给定视频的第一帧中学习并扩展其内容和动作,例如,使其长度加倍。为此,我们提出了一种双网络,可以灵活地使用动态和静态卷积运动内核来预测未来的帧。我们模型的构造为我们提供了有效分析其功能和解释其输出的方法。我们通过实验证明了我们在最狂野具有挑战性的视频方法的稳健性和表明它是有竞争力的\ WRT相关的基线。



结论

我们已经从单个视频剪辑中引入了用于未来帧合成的模型。最初由视网膜中的Direction Selective细胞机制启发,我们的运动表示基于双网络:一个学习内核,另一个动态选择最佳子集用于下一帧预测。我们的帧生成与挑战视频的基线方法相比毫不逊色。作为未来的工作,我们计划调查这种双网构造对其他任务的潜力,例如运动构成或运动传递。另一个方向是提取更丰富的潜在运动表示。













https://www.arxiv-vanity.com/papers/1812.10157/



年薪百万-骥智CreateAMind2019招聘目标:年薪百万招聘大牛50+  推荐成功送mate20


登录查看更多
0

相关内容

【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
CVPR 2019视频描述(video caption)相关论文总结
极市平台
36+阅读 · 2019年10月16日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
CVPR2019无人驾驶相关论文
极市平台
21+阅读 · 2019年3月20日
视频理解 S3D,I3D-GCN,SlowFastNet, LFB
极市平台
7+阅读 · 2019年1月31日
用收缩损失(Shrinkage Loss)进行深度回归跟踪
计算机视觉战队
3+阅读 · 2018年10月18日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
微软发布Visual Studio Tools for AI
AI前线
4+阅读 · 2017年11月20日
VIP会员
相关VIP内容
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
相关资讯
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
CVPR 2019视频描述(video caption)相关论文总结
极市平台
36+阅读 · 2019年10月16日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
CVPR2019无人驾驶相关论文
极市平台
21+阅读 · 2019年3月20日
视频理解 S3D,I3D-GCN,SlowFastNet, LFB
极市平台
7+阅读 · 2019年1月31日
用收缩损失(Shrinkage Loss)进行深度回归跟踪
计算机视觉战队
3+阅读 · 2018年10月18日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
微软发布Visual Studio Tools for AI
AI前线
4+阅读 · 2017年11月20日
Top
微信扫码咨询专知VIP会员