Event-based cameras are bio-inspired vision sensors whose pixels work independently from each other and respond asynchronously to brightness changes, with microsecond resolution. Their advantages make it possible to tackle challenging scenarios in robotics, such as high-speed and high dynamic range scenes. We present a solution to the problem of visual odometry from the data acquired by a stereo event-based camera rig. Our system follows a parallel tracking-and-mapping approach, where novel solutions to each subproblem (3D reconstruction and camera pose estimation) are developed with two objectives in mind: being principled and efficient, for real-time operation with commodity hardware. To this end, we seek to maximize the spatio-temporal consistency of stereo event-based data while using a simple and efficient representation. Specifically, the mapping module builds a semi-dense 3D map of the scene by fusing depth estimates from multiple local viewpoints (obtained by spatio-temporal consistency) in a probabilistic fashion. The tracking module recovers the pose of the stereo rig by solving a registration problem that naturally arises due to the chosen map and event data representation. Experiments on publicly available datasets and on our own recordings demonstrate the versatility of the proposed method in natural scenes with general 6-DoF motion. The system successfully leverages the advantages of event-based cameras to perform visual odometry in challenging illumination conditions, such as low-light and high dynamic range, while running in real-time on a standard CPU. We release the software and dataset under an open source licence to foster research in the emerging topic of event-based SLAM.


翻译:以事件为基础的摄影机是生物启发式的视觉传感器,其像素相互独立运作,对亮度变化作出同步反应,使用微秒分辨率。它们的优势使得有可能应对机器人中具有挑战性的情景,例如高速和高动态场景。我们从立体事件摄影机获得的数据中提出一个解决方案。我们的系统采用平行的跟踪和映射方法,对每个子问题(3D重建和照相机构成公开估计)开发出新的解决方案,其中有两个目标:原则性和效率,用于商品硬件的实时操作。为此,我们力求在使用简单高效的演示的同时,最大限度地实现立体事件数据在立体时的同步一致性。具体地说,绘图模块从立体事件立体摄影机获得半感知3D地图,从多个地方视角(由脉冲-时序一致性构成估计)以不稳定性方式为基础进行深度估算。追踪模块通过在所选的地图和事件轨迹中自动生成的注册条件,在所选的动态图像模型中,在所选的动态图像模型中,通过一个可获取的公开数据,在所选的动态图像中,在所选的图像中,在可选的快速数据展示中,对事件进行现场数据进行实验。

0
下载
关闭预览

相关内容

【浙江大学】计算摄影学 (Computational Photography)课程
专知会员服务
26+阅读 · 2020年12月26日
专知会员服务
87+阅读 · 2019年12月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【泡泡图灵智库】协同视觉-惯性SLAM
泡泡机器人SLAM
29+阅读 · 2019年9月6日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡一分钟】高动态环境的语义单目SLAM
泡泡机器人SLAM
5+阅读 · 2019年3月27日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】CVI-SLAM –协同视觉惯性SLAM
泡泡机器人SLAM
21+阅读 · 2018年12月18日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
LIMO: Lidar-Monocular Visual Odometry
Arxiv
3+阅读 · 2018年7月19日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关资讯
【泡泡图灵智库】协同视觉-惯性SLAM
泡泡机器人SLAM
29+阅读 · 2019年9月6日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡一分钟】高动态环境的语义单目SLAM
泡泡机器人SLAM
5+阅读 · 2019年3月27日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】CVI-SLAM –协同视觉惯性SLAM
泡泡机器人SLAM
21+阅读 · 2018年12月18日
Top
微信扫码咨询专知VIP会员