Multi-view depth estimation methods typically require the computation of a multi-view cost-volume, which leads to huge memory consumption and slow inference. Furthermore, multi-view matching can fail for texture-less surfaces, reflective surfaces and moving objects. For such failure modes, single-view depth estimation methods are often more reliable. To this end, we propose MaGNet, a novel framework for fusing single-view depth probability with multi-view geometry, to improve the accuracy, robustness and efficiency of multi-view depth estimation. For each frame, MaGNet estimates a single-view depth probability distribution, parameterized as a pixel-wise Gaussian. The distribution estimated for the reference frame is then used to sample per-pixel depth candidates. Such probabilistic sampling enables the network to achieve higher accuracy while evaluating fewer depth candidates. We also propose depth consistency weighting for the multi-view matching score, to ensure that the multi-view depth is consistent with the single-view predictions. The proposed method achieves state-of-the-art performance on ScanNet, 7-Scenes and KITTI. Qualitative evaluation demonstrates that our method is more robust against challenging artifacts such as texture-less/reflective surfaces and moving objects.


翻译:多视图深度估算方法通常要求计算多视图成本量,这会导致大量内存消耗和缓慢推算。 此外,多视图匹配对于无纹理表面、反射表面和移动对象可能失败。 对于这种失败模式,单视图深度估算方法往往更加可靠。 为此,我们提议使用多视图几何测量法来设定单视图深度概率的新框架MaGNet, 以提高多视图深度估算的准确性、稳健性和效率。 对于每个框架, MaGNet 估计一个单一视图深度概率分布, 以像素测算为参数。 用于参考框架的分布估计会被用于样本每像素深度选择者。 这种概率抽样使网络在评估更低的深度候选者的同时能够实现更高的准确性。 我们还提议多视图匹配分的深度加权,以确保多视图深度与单视图预测相一致。 拟议的方法在扫描网、 7- Scenes 和 KITTI 上无法进行状态的定位。 相对于更具有挑战性的文本来说,我们最强的图像/不易动的图像性物体是展示我们更稳健的系统。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
“CVPR 2020 接受论文列表 1470篇论文都在这了
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【泡泡一分钟】基于建筑立面对称性的语义分析(3dv-56)
泡泡机器人SLAM
3+阅读 · 2018年3月14日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【泡泡一分钟】基于建筑立面对称性的语义分析(3dv-56)
泡泡机器人SLAM
3+阅读 · 2018年3月14日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Top
微信扫码咨询专知VIP会员