Indirect methods for visual SLAM are gaining popularity due to their robustness to environmental variations. ORB-SLAM2 \cite{orbslam2} is a benchmark method in this domain, however, it consumes significant time for computing descriptors that never get reused unless a frame is selected as a keyframe.To overcome these problems, we present FastORB-SLAM which is lightweight and efficient as it tracks keypoints between adjacent frames without computing descriptors. To achieve this, a two stage coarse-to-fine descriptor independent keypoint matching method is proposed based on sparse optical flow. In the first stage, we predict initial keypoint correspondences via a simple but effective motion model and then robustly establish the correspondences via pyramid-based sparse optical flow tracking. In the second stage, we leverage the constraints of the motion smoothness and epipolar geometry to refine the correspondences. In particular, our method computes descriptors only for keyframes. We test FastORB-SLAM on \textit{TUM} and \textit{ICL-NUIM} RGB-D datasets and compare its accuracy and efficiency to nine existing RGB-D SLAM methods. Qualitative and quantitative results show that our method achieves state-of-the-art accuracy and is about twice as fast as the ORB-SLAM2.


翻译:视觉 SLAM 的间接方法由于对环境变异的强力而越来越受欢迎。 ORB- SLAM2\ cite{ orbslam2} ORB- SLAM2\ cite{cite{orbslam2} 是这一领域的基准方法, 但是, 它花费了大量的时间来计算无法再利用的描述符, 除非选择一个框架作为关键框架。 为了克服这些问题, 我们展示了 FastORB- SLAM, 它在跟踪相邻框架之间的关键点而不计算描述符时, 它既轻又高效。 为了实现这一点, 我们只对关键框架进行两个阶段的粗略到直线性描述符独立关键点匹配方法。 在第一阶段, 我们通过一个简单有效的运动模型预测初始关键点对应, 然后通过基于金字塔的分散光学流跟踪来强有力地建立对应。 在第二阶段, 我们的方法只对关键框架进行解析标。 我们测试FastORB- SLAM- SLAM, 和 textitleit{ICL-D 和 RGB- D 的精确度将现有数据方法作为 RGB- 和 RGB- 的精确度对比, RGB- 和 RGB- d 的当前 和 RGB- d 的精确性 和 RGB- 的精确度, 和 RGB- 的 的精确性 和 RGB- 和 RQ 的精确性 的精确度方法作为 的 的 和 RGB- 和 RQ 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 和 RGB- 和 RGB- 的 的 的 的 的 的 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 和 R- 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 RGB- 的 的 和 R- 的 的 的 的 的 的 和 R- 的

0
下载
关闭预览

相关内容

ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
CVPR 2021 Oral | 室内动态场景中的相机重定位
专知会员服务
15+阅读 · 2021年4月12日
最新《自然场景中文本检测与识别》综述论文,26页pdf
专知会员服务
69+阅读 · 2020年6月10日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
专知会员服务
86+阅读 · 2019年12月13日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡一分钟】高动态环境的语义单目SLAM
泡泡机器人SLAM
5+阅读 · 2019年3月27日
【泡泡一分钟】视觉惯性里程计的信息稀疏化(IROS-2018)
泡泡机器人SLAM
9+阅读 · 2018年12月31日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
【泡泡一分钟】基于CNN特征的SeqSLAM闭环实时性检测
泡泡机器人SLAM
10+阅读 · 2018年4月4日
EfficientDet: Scalable and Efficient Object Detection
Arxiv
6+阅读 · 2019年11月20日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
VIP会员
相关VIP内容
ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
CVPR 2021 Oral | 室内动态场景中的相机重定位
专知会员服务
15+阅读 · 2021年4月12日
最新《自然场景中文本检测与识别》综述论文,26页pdf
专知会员服务
69+阅读 · 2020年6月10日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
专知会员服务
86+阅读 · 2019年12月13日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡一分钟】高动态环境的语义单目SLAM
泡泡机器人SLAM
5+阅读 · 2019年3月27日
【泡泡一分钟】视觉惯性里程计的信息稀疏化(IROS-2018)
泡泡机器人SLAM
9+阅读 · 2018年12月31日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
【泡泡一分钟】基于CNN特征的SeqSLAM闭环实时性检测
泡泡机器人SLAM
10+阅读 · 2018年4月4日
Top
微信扫码咨询专知VIP会员