Stereo-LiDAR fusion is a promising task in that we can utilize two different types of 3D perceptions for practical usage -- dense 3D information (stereo cameras) and highly-accurate sparse point clouds (LiDAR). However, due to their different modalities and structures, the method of aligning sensor data is the key for successful sensor fusion. To this end, we propose a geometry-aware stereo-LiDAR fusion network for long-range depth estimation, called volumetric propagation network. The key idea of our network is to exploit sparse and accurate point clouds as a cue for guiding correspondences of stereo images in a unified 3D volume space. Unlike existing fusion strategies, we directly embed point clouds into the volume, which enables us to propagate valid information into nearby voxels in the volume, and to reduce the uncertainty of correspondences. Thus, it allows us to fuse two different input modalities seamlessly and regress a long-range depth map. Our fusion is further enhanced by a newly proposed feature extraction layer for point clouds guided by images: FusionConv. FusionConv extracts point cloud features that consider both semantic (2D image domain) and geometric (3D domain) relations and aid fusion at the volume. Our network achieves state-of-the-art performance on the KITTI and the Virtual-KITTI datasets among recent stereo-LiDAR fusion methods.


翻译:立体- 立体- 立体- 立体聚合是一个很有希望的任务, 因为我们可以利用两种不同类型的三维感知来实际使用 -- -- 密集 3D 信息( 立体相机) 和高度精确的稀有点云( 立体雷达) 。 然而, 由于其模式和结构不同, 将传感器数据统一起来的方法是成功的传感器聚合的关键。 为此, 我们提出一个称为量子传播网络的长距离深度估计的几何觉立体- 立体- 立体聚合网络。 我们网络的关键思想是利用稀有和准确的点云作为导线, 用以指导3D 统一的体积空间内立体图像的通信。 与现有的融合战略不同, 我们直接将点云嵌入体体积, 从而使我们能够将有效信息传播到音量的附近的毒物中, 并减少通信的不确定性。 因此, 我们能够将两种不同的输入模式紧密的深度地图连接起来。 我们的融合由于新提出的由图像引导的点云的地谱提取层: Fusion Convion- D 提取点云点点云特征- 和在考虑我们虚拟网络上的磁体- 度- 度- 度- 级数据库中的数据- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库- 数据库-

0
下载
关闭预览

相关内容

根据激光测量原理得到的点云,包括三维坐标(XYZ)和激光反射强度(Intensity)。 根据摄影测量原理得到的点云,包括三维坐标(XYZ)和颜色信息(RGB)。 结合激光测量和摄影测量原理得到点云,包括三维坐标(XYZ)、激光反射强度(Intensity)和颜色信息(RGB)。 在获取物体表面每个采样点的空间坐标后,得到的是一个点的集合,称之为“点云”(Point Cloud)
MonoGRNet:单目3D目标检测的通用框架(TPAMI2021)
专知会员服务
18+阅读 · 2021年5月3日
【ECCV2020】OCRNet化解语义分割上下文信息缺失难题
专知会员服务
17+阅读 · 2020年8月24日
【ICLR2020】图神经网络与图像处理,微分方程,27页ppt
专知会员服务
48+阅读 · 2020年6月6日
专知会员服务
110+阅读 · 2020年3月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
CVPR2019 | 全景分割:Attention-guided Unified Network
极市平台
9+阅读 · 2019年3月3日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
【泡泡一分钟】SfM-Net:从视频中学习结构和运动
泡泡机器人SLAM
9+阅读 · 2018年5月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
1+阅读 · 2021年5月18日
Arxiv
12+阅读 · 2019年1月24日
VIP会员
相关资讯
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
CVPR2019 | 全景分割:Attention-guided Unified Network
极市平台
9+阅读 · 2019年3月3日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
【泡泡一分钟】SfM-Net:从视频中学习结构和运动
泡泡机器人SLAM
9+阅读 · 2018年5月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员