Despite the remarkable progress of deep learning in stereo matching, there exists a gap in accuracy between real-time models and slower state-of-the-art models which are suitable for practical applications. This paper presents an iterative multi-scale coarse-to-fine refinement (iCFR) framework to bridge this gap by allowing it to adopt any stereo matching network to make it fast, more efficient and scalable while keeping comparable accuracy. To reduce the computational cost of matching, we use multi-scale warped features to estimate disparity residuals and push the disparity search range in the cost volume to a minimum limit. Finally, we apply a refinement network to recover the loss of precision which is inherent in multi-scale approaches. We test our iCFR framework by adopting the matching networks from state-of-the art GANet and AANet. The result is 49$\times$ faster inference time compared to GANetdeep and 4$\times$ less memory consumption, with comparable error. Our best performing network, which we call FRSNet is scalable even up to an input resolution of 6K on a GTX 1080Ti, with inference time still below one second and comparable accuracy to AANet+. It out-performs all real-time stereo methods and achieves competitive accuracy on the KITTI benchmark.


翻译:尽管在立体匹配方面的深层学习取得了显著进展,但在实时模型与适合实际应用的较先进模型之间,在准确性方面存在差距,本文展示了一个迭代多尺度粗到软改进框架,以弥补这一差距,允许其采用任何立体匹配网络,使其快速、更有效和可缩放,同时保持可比准确性。为降低匹配的计算成本,我们使用多尺度扭曲特征来估计差异剩余量,并将成本量中的差异搜索范围推至最低限度。最后,我们应用一个精细网络来恢复多尺度方法所固有的精确度损失。我们测试我们的iCFR框架,采用来自先进GANet和AAANet的匹配网络。结果为49美元比GANet更快,4美元比记忆消耗少,差4美元。我们称之为FRSNet的最佳性能网络,甚至可以升级到6K在GTX 1080的精确度上输入第二项决议。我们测试我们的iFR框架,从GX 1080的精确度到KIT的精确度,比A-stal-stal-stall ax ax ax precilation-stall aximme ax be precal-time ax bex bex bex bex bex bex precaltime ax ax axtimetimexxtime axtimex-stst rotimex rotime robility-st rotical-st rogy 的方法。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
专知会员服务
22+阅读 · 2020年9月8日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
博客 | CIFAR10 数据预处理
AI研习社
11+阅读 · 2018年10月12日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
VIP会员
相关资讯
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
博客 | CIFAR10 数据预处理
AI研习社
11+阅读 · 2018年10月12日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员