Indirect methods for visual SLAM are gaining popularity due to their robustness to environmental variations. ORB-SLAM2 \cite{orbslam2} is a benchmark method in this domain, however, it consumes significant time for computing descriptors that never get reused unless a frame is selected as a keyframe.To overcome these problems, we present FastORB-SLAM which is lightweight and efficient as it tracks keypoints between adjacent frames without computing descriptors. To achieve this, a two stage coarse-to-fine descriptor independent keypoint matching method is proposed based on sparse optical flow. In the first stage, we predict initial keypoint correspondences via a simple but effective motion model and then robustly establish the correspondences via pyramid-based sparse optical flow tracking. In the second stage, we leverage the constraints of the motion smoothness and epipolar geometry to refine the correspondences. In particular, our method computes descriptors only for keyframes. We test FastORB-SLAM on \textit{TUM} and \textit{ICL-NUIM} RGB-D datasets and compare its accuracy and efficiency to nine existing RGB-D SLAM methods. Qualitative and quantitative results show that our method achieves state-of-the-art accuracy and is about twice as fast as the ORB-SLAM2.


翻译:视觉 SLAM 的间接方法由于对环境变异的强力而越来越受欢迎。 ORB- SLAM2\ cite{ orbslam2} ORB- SLAM2\ cite{cite{orbslam2} 是这一领域的基准方法, 但是, 它花费了大量的时间来计算无法再利用的描述符, 除非选择一个框架作为关键框架。 为了克服这些问题, 我们展示了 FastORB- SLAM, 它在跟踪相邻框架之间的关键点而不计算描述符时, 它既轻又高效。 为了实现这一点, 我们只对关键框架进行两个阶段的粗略到直线性描述符独立关键点匹配方法。 在第一阶段, 我们通过一个简单有效的运动模型预测初始关键点对应, 然后通过基于金字塔的分散光学流跟踪来强有力地建立对应。 在第二阶段, 我们的方法只对关键框架进行解析标。 我们测试FastORB- SLAM- SLAM, 和 textitleit{ICL-D 和 RGB- D 的精确度将现有数据方法作为 RGB- 和 RGB- 的精确度对比, RGB- 和 RGB- d 的当前 和 RGB- d 的精确性 和 RGB- 的精确度, 和 RGB- 的 的精确性 和 RGB- 和 RQ 的精确性 的精确度方法作为 的 的 和 RGB- 和 RQ 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 和 RGB- 和 RGB- 的 的 的 的 的 的 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 的 的 和 R- 的 的 的 的 的 的 和 R- 的

1
下载
关闭预览

相关内容

MonoGRNet:单目3D目标检测的通用框架(TPAMI2021)
专知会员服务
17+阅读 · 2021年5月3日
专知会员服务
76+阅读 · 2021年3月16日
专知会员服务
161+阅读 · 2020年1月16日
专知会员服务
86+阅读 · 2019年12月13日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
【泡泡一分钟】CVI-SLAM –协同视觉惯性SLAM
泡泡机器人SLAM
21+阅读 · 2018年12月18日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Arxiv
13+阅读 · 2018年4月6日
VIP会员
相关资讯
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
【泡泡一分钟】CVI-SLAM –协同视觉惯性SLAM
泡泡机器人SLAM
21+阅读 · 2018年12月18日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Top
微信扫码咨询专知VIP会员