It has been well recognized that fusing the complementary information from depth-aware LiDAR point clouds and semantic-rich stereo images would benefit 3D object detection. Nevertheless, it is not trivial to explore the inherently unnatural interaction between sparse 3D points and dense 2D pixels. To ease this difficulty, the recent proposals generally project the 3D points onto the 2D image plane to sample the image data and then aggregate the data at the points. However, this approach often suffers from the mismatch between the resolution of point clouds and RGB images, leading to sub-optimal performance. Specifically, taking the sparse points as the multi-modal data aggregation locations causes severe information loss for high-resolution images, which in turn undermines the effectiveness of multi-sensor fusion. In this paper, we present VPFNet -- a new architecture that cleverly aligns and aggregates the point cloud and image data at the `virtual' points. Particularly, with their density lying between that of the 3D points and 2D pixels, the virtual points can nicely bridge the resolution gap between the two sensors, and thus preserve more information for processing. Moreover, we also investigate the data augmentation techniques that can be applied to both point clouds and RGB images, as the data augmentation has made non-negligible contribution towards 3D object detectors to date. We have conducted extensive experiments on KITTI dataset, and have observed good performance compared to the state-of-the-art methods. Remarkably, our VPFNet achieves 83.21\% moderate 3D AP and 91.86\% moderate BEV AP on the KITTI test set, ranking the 1st since May 21th, 2021. The network design also takes computation efficiency into consideration -- we can achieve a FPS of 15 on a single NVIDIA RTX 2080Ti GPU. The code will be made available for reproduction and further investigation.


翻译:众所周知,利用深觉LiDAR点云和语义丰富的音响图像提供补充信息将有利于3D对象探测;然而,探索稀少的3D点和稠密的2D像素之间固有的非自然互动并非微不足道。为缓解这一困难,最近的建议一般地将3D点投放到2D图像平面上,以抽样图像数据,然后在点上汇总数据。然而,这种方法往往会因点云分辨率与 RGB 20 图像的分辨率不匹配而受到影响,导致亚优性性性能。具体地说,将稀疏点用于多式数据汇总,因为多式数据汇总位置会给高分辨率图像造成严重的信息损失,而这反过来又会损害多传感器和密度2D像素的融合效果。在本文中,我们介绍的VPFNet是一个新的结构,在“虚拟”点上对点云和图像数据进行精密的结合和汇总。 3DO值的密度在3D点和2D Pixel之间,虚拟点可以缩小两个已观测过的传感器之间的分辨率差距,从而将更多的数据保存为RTER 。

1
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
56+阅读 · 2021年4月12日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
已删除
将门创投
12+阅读 · 2017年10月13日
Arxiv
6+阅读 · 2021年11月12日
Arxiv
12+阅读 · 2021年6月21日
Review: deep learning on 3D point clouds
Arxiv
5+阅读 · 2020年1月17日
Arxiv
12+阅读 · 2019年1月24日
VIP会员
相关资讯
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
已删除
将门创投
12+阅读 · 2017年10月13日
Top
微信扫码咨询专知VIP会员