Indirect methods for visual SLAM are gaining popularity due to their robustness to environmental variations. ORB-SLAM2 \cite{orbslam2} is a benchmark method in this domain, however, it consumes significant time for computing descriptors that never get reused unless a frame is selected as a keyframe.To overcome these problems, we present FastORB-SLAM which is lightweight and efficient as it tracks keypoints between adjacent frames without computing descriptors. To achieve this, a two stage coarse-to-fine descriptor independent keypoint matching method is proposed based on sparse optical flow. In the first stage, we predict initial keypoint correspondences via a simple but effective motion model and then robustly establish the correspondences via pyramid-based sparse optical flow tracking. In the second stage, we leverage the constraints of the motion smoothness and epipolar geometry to refine the correspondences. In particular, our method computes descriptors only for keyframes. We test FastORB-SLAM on \textit{TUM} and \textit{ICL-NUIM} RGB-D datasets and compare its accuracy and efficiency to nine existing RGB-D SLAM methods. Qualitative and quantitative results show that our method achieves state-of-the-art accuracy and is about twice as fast as the ORB-SLAM2.
翻译:视觉 SLAM 的间接方法由于对环境变异的强力而越来越受欢迎。 ORB- SLAM2\ cite{ orbslam2} ORB- SLAM2\ cite{cite{orbslam2} 是这一领域的基准方法, 但是, 它花费了大量的时间来计算无法再利用的描述符, 除非选择一个框架作为关键框架。 为了克服这些问题, 我们展示了 FastORB- SLAM, 它在跟踪相邻框架之间的关键点而不计算描述符时, 它既轻又高效。 为了实现这一点, 我们只对关键框架进行两个阶段的粗略到直线性描述符独立关键点匹配方法。 在第一阶段, 我们通过一个简单有效的运动模型预测初始关键点对应, 然后通过基于金字塔的分散光学流跟踪来强有力地建立对应。 在第二阶段, 我们的方法只对关键框架进行解析标。 我们测试FastORB- SLAM- SLAM, 和 textitleit{ICL-D 和 RGB- D 的精确度将现有数据方法作为 RGB- 和 RGB- 的精确度对比, RGB- 和 RGB- d 的当前 和 RGB- d 的精确性 和 RGB- 的精确度, 和 RGB- 的 的精确性 和 RGB- 和 RQ 的精确性 的精确度方法作为 的 的 和 RGB- 和 RQ 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 和 RGB- 和 RGB- 的 的 的 的 的 的 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 的 的 和 R- 的 的 的 的 的 的 和 R- 的