【泡泡一分钟】终极SLAM?结合事件相机、RGB和IMU用于高动态、高速场景的鲁棒视觉SLAM

2018 年 4 月 2 日 泡泡机器人SLAM 泡泡一分钟

每天一分钟,带你读遍机器人顶级会议文章

标题:Ultimate SLAM? Combining Events, Images, and IMU for Robust Visual SLAM in HDR and High-Speed Scenarios

作者:T. Rosinol Vidal, H.Rebecq, T. Horstschaefer, D. Scaramuzza

来源:IEEE Robotics and Automation Letters (RA-L), 2018. 

播音员:堃堃

编译: 蔡纪源

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要



           大家好,今天为大家带来的文章是——终极SLAM?结合事件相机、RGB和IMU用于高动态、高速场景的鲁棒视觉SLAM 。
        事件相机是一种由生物灵感启发的视觉传感器,与传统输出像素灰度值的相机不同,它输出的是像素级亮度变化。这种相机具有非常高的动态范围,且不会产生运动模糊,因此它们能够在高速运动或高动态范围的场景下提供可靠的视觉信息。要注意的是,当运动量很有限时,比如在几乎静止的情况下,事件相机就只能输出很少的信息。

        与之相比,标准相机大多数的时间(低速和良好的光照场景)都能提供丰富实时的环境灰度信息,但在快速运动、高动态范围或低光照等糟糕的环境情中,它们经常会失效。下图1中,通过三种不同难易场景下做特征跟踪任务时的标准相机与事件相机的结果对比。 

图1 标准相机与事件相机在不同环境下的特征跟踪对比    (a)光线暗(b)光照好,速度适中 (c)动态模糊 


       在本文中,作者结合了这两种传感器的互补优势,首次提出了一种对事件、标准帧和惯性测量进行紧耦合融合的状态估计方法。此外,作者还用四旋翼作为验证平台,结果表明提出的方法能够实现自主飞行,能够适应传统视觉-惯性里程计失效的飞行场景,比如低光照环境和高动态范围场景。

实验视频链接:http://rpg.ifi.uzh.ch/ultimateslam.html

   

图2 本文算法在四旋翼上机载运行示意图
左下:标准帧 底部中间:事件帧 右下:事件(蓝色:
正事件,红色:负事件)。

      

       最后,在事件相机的公开数据集上的实验结果显示,我们的混合方法相比纯事件相机的状态估计方法精度提高了130%,相比标准的视觉惯性系统精度提高了85%,且在计算上是易进行的。

图3 提出的方法搭配不同的传感器时的精度对比

标准帧(FR),事件(E)和IMU(I)

图4 提出的方法与State-of-art方法对比


Abstract

       Abstract—Event cameras are bioinspired vision sensors that output pixel-level brightness changes instead of standard intensity frames. These cameras do not suffer from motion blur and have a very high dynamic range, which enables them to provide reliable visual information during high-speed motions or in scenes characterized by high dynamic range. However, event cameras output only little information when the amount of motion is limited, such as in the case of almost still motion. Conversely, standard cameras provide instant and rich information about the environment most of the time (in low-speed and good lighting scenarios), but they fail severely in case of fast motions, or difficult lighting such as high dynamic range or low light scenes. In this letter, we present the first state estimation pipeline that leverages the complementary advantages of these two sensors by fusing in a tightly coupled manner events, standard frames, and inertial measurements. We show on the publicly available Event Camera Dataset that our hybrid pipeline leads to an accuracy improvement of 130% over eventonly pipelines, and 85% over standard-frames-only visual-inertial systems, while still being computationally tractable. Furthermore, we use our pipeline to demonstrate—to the best of our knowledge—the first autonomous quadrotor flight using an event camera for state estimation, unlocking flight scenarios that were not reachable with traditional visual-inertial odometry, such as low-light environments and high dynamic range scenes. Videos of the experiments:
http://rpg.ifi.uzh.ch/ultimateslam.html


如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号


点击阅读原文,即可获取本文下载链接。

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/



泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com


登录查看更多
14

相关内容

即时定位与地图构建(SLAM或Simultaneouslocalizationandmapping)是这样一种技术:使得机器人和自动驾驶汽车等设备能在未知环境(没有先验知识的前提下)建立地图,或者在已知环境(已给出该地图的先验知识)中能更新地图,并保证这些设备能在同时追踪它们的当前位置。
专知会员服务
49+阅读 · 2020年6月14日
基于视觉的三维重建关键技术研究综述
专知会员服务
154+阅读 · 2020年5月1日
专知会员服务
84+阅读 · 2019年12月13日
【泡泡一分钟】DS-SLAM: 动态环境下的语义视觉SLAM
泡泡机器人SLAM
23+阅读 · 2019年1月18日
【泡泡一分钟】CVI-SLAM –协同视觉惯性SLAM
泡泡机器人SLAM
20+阅读 · 2018年12月18日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
VIP会员
Top
微信扫码咨询专知VIP会员