DNN-based frame interpolation--that generates the intermediate frames given two consecutive frames--typically relies on heavy model architectures with a huge number of features, preventing them from being deployed on systems with limited resources, e.g., mobile devices. We propose a compression-driven network design for frame interpolation (CDFI), that leverages model pruning through sparsity-inducing optimization to significantly reduce the model size while achieving superior performance. Concretely, we first compress the recently proposed AdaCoF model and show that a 10X compressed AdaCoF performs similarly as its original counterpart; then we further improve this compressed model by introducing a multi-resolution warping module, which boosts visual consistencies with multi-level details. As a consequence, we achieve a significant performance gain with only a quarter in size compared with the original AdaCoF. Moreover, our model performs favorably against other state-of-the-arts in a broad range of datasets. Finally, the proposed compression-driven framework is generic and can be easily transferred to other DNN-based frame interpolation algorithm. Our source code is available at https://github.com/tding1/CDFI.


翻译:以 DNN 为基础的框架内插- 生成中间框架, 连续两个框架( 典型地) 依赖大量功能的重型模型结构, 从而产生中间框架, 连续两个框架( AdaCoF ) 典型地依赖大量功能的重型模型结构, 防止它们被部署在资源有限的系统上, 例如移动设备。 我们提议为框架内插( CDFI) 提供压缩驱动网络设计( CDFI ), 通过宽度吸引优化, 使模型通过宽度推导优化, 大大缩小模型的大小, 从而实现优异性。 具体地说, 我们首先压缩的AdaCoF 模型将最近提出的模型压缩, 并显示一个10X 压缩的 AdaCoF 框架与其原始对应方类似; 然后我们通过引入一个多分辨率扭曲模块来进一步改进这一压缩模型, 从而增强多层次细节的视觉构成。 因此, 我们的源代码比原AdaCoF 还要小四分之一。 此外, 我们的源代码比其他数据集要好得多。 最后, http:// givbs. CD 。

0
下载
关闭预览

相关内容

Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
【新书】Java企业微服务,Enterprise Java Microservices,272页pdf
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
3+阅读 · 2017年11月3日
Arxiv
0+阅读 · 2021年5月4日
Arxiv
8+阅读 · 2021年2月1日
Attention Network Robustification for Person ReID
Arxiv
5+阅读 · 2019年10月15日
Arxiv
3+阅读 · 2017年12月23日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2017年11月3日
Top
微信扫码咨询专知VIP会员