At modern construction sites, utilizing GNSS (Global Navigation Satellite System) to measure the real-time location and orientation (i.e. pose) of construction machines and navigate them is very common. However, GNSS is not always available. Replacing GNSS with on-board cameras and visual simultaneous localization and mapping (visual SLAM) to navigate the machines is a cost-effective solution. Nevertheless, at construction sites, multiple construction machines will usually work together and side-by-side, causing large dynamic occlusions in the cameras' view. Standard visual SLAM cannot handle large dynamic occlusions well. In this work, we propose a motion segmentation method to efficiently extract static parts from crowded dynamic scenes to enable robust tracking of camera ego-motion. Our method utilizes semantic information combined with object-level geometric constraints to quickly detect the static parts of the scene. Then, we perform a two-step coarse-to-fine ego-motion tracking with reference to the static parts. This leads to a novel dynamic visual SLAM formation. We test our proposals through a real implementation based on ORB-SLAM2, and datasets we collected from real construction sites. The results show that when standard visual SLAM fails, our method can still retain accurate camera ego-motion tracking in real-time. Comparing to state-of-the-art dynamic visual SLAM methods, ours shows outstanding efficiency and competitive result trajectory accuracy.


翻译:在现代建筑工地,利用全球导航卫星系统(全球导航卫星系统)测量建筑机器的实时位置和方向(即摆布)并对其进行导航,这是非常常见的。然而,全球导航卫星系统并非总能提供。用机上照相机和视觉同步本地化和绘图(视频SLAM)取代全球导航卫星系统,是具有成本效益的解决办法。然而,在建筑工地,多台建筑机器通常会一起并肩工作,造成摄像机眼中的大规模动态隔离。标准视觉SLAMM无法很好地处理大型动态闭塞。在这项工作中,我们提出一个运动分割法,以便从拥挤的动态场景中高效地提取固定部分,以便能够对相机的自我感动进行强有力的跟踪。我们的方法利用语义信息,加上目标级的地理测量限制,来快速探测机器的静态部分。然后,我们用静态部分进行两步相偏向自动跟踪,从而形成一个全新的动态视觉SLM结构。我们通过基于 ORB-SLAM2和从真实的视觉自我定位轨迹来测试我们的建议。我们从真实的SLA-SA-SAR-S-S-S-S-S-SAR-SAR-SAR-SAR-SAR-SAR-C-S-SD-SD-SD-SD-SD-SD-SAR-SD-SD-SD-SD-SD-SD-SD-S-SD-SD-SD-SD-S-S-S-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-S-S-SD-SD-SD-SD-SD-SD-SD-SD-SD-S-S-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-S-SD-SD-S-S-S-S-S-S-S-S-S-S-SD-SD-SD-SD-SD-SD-SD-SD-S

0
下载
关闭预览

相关内容

即时定位与地图构建(SLAM或Simultaneouslocalizationandmapping)是这样一种技术:使得机器人和自动驾驶汽车等设备能在未知环境(没有先验知识的前提下)建立地图,或者在已知环境(已给出该地图的先验知识)中能更新地图,并保证这些设备能在同时追踪它们的当前位置。
专知会员服务
109+阅读 · 2020年3月12日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Arxiv
1+阅读 · 2021年3月12日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关资讯
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员