每天一分钟,带你读遍机器人顶级会议文章
标题:Surface-based Exploration for Autonomous 3D Modeling
作者:Soohwan Song and Sungho Jo
来源:IEEE International Conference on Robotics and Automation (ICRA) May 21-25, 2018, Brisbane, Australia
编译:孙钦
审核:颜青松,陈世浪
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权
摘要
在这项研究中,我们解决了移动机器人的路径规划问题,从而构建未知环境的高精度3D模型。大多数研究都集中在通过分析体积图找到最具信息的视角或轨迹的探索方法上。但是,体积图的完成并不一定表示3D模型的完成。高度复杂的结构有时不能表示为体积模型。我们提出了一种新颖的探索算法,该算法不仅考虑体积图,还考虑重建的表面。与以前的方法不同,我们根据重建表面的质量评估模型的完整性,并提取低置信度的表面。表面信息用于指导探索路径的计算。
图1 电厂建筑物的自主3D建模示例。机器人在建筑物周围进行探索,同时使用配备的视觉传感器(上图)扫描建筑物。我们的方法通过同时分析体积(左下)和表面模型(右下)来计算探索路径。
图2 提出的框架的整体系统架构。
图3 提出的路径规划算法流程。
图4 局部检查路径规划算法概述。
图5 局部检查路径规划算法流程。
实验结果表明,该算法的性能优于其他最先进的探索方法,特别是提高了三维模型的完整性和可靠性。
表1 在实验中使用的参数。
表2 在两种场景中的实验结果。
Abstract
In this study, we addressed a path planning problem of a mobile robot to construct highly accurate 3D models of an unknown environment. Most studies have focused on exploration approaches, which find the most informative viewpoint or trajectories by analyzing a volumetric map. However, the completion of a volumetric map does not necessarily describe the completion of a 3D model. A highly complicated structure sometimes cannot be represented as a volumetric model. We propose a novel exploration algorithm that considers not only a volumetric map but also reconstructed surfaces. Unlike previous approaches, we evaluate the model completeness according to the quality of the reconstructed surfaces and extract low-confidence surfaces. The surface information is used to guide the computation of the exploration path. Experimental results showed that the proposed algorithm performed better than other state-of-the-art exploration methods and especially improved the completeness and confidence of the 3D models.
如果你对本文感兴趣,请点击点击阅读原文下载完整文章,如想查看更多文章请关注【泡泡机器人SLAM】公众号(paopaorobot_slam)。
欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。
有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!
泡泡网站:www.paopaorobot.org
泡泡论坛:http://paopaorobot.org/bbs/
泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!
商业合作及转载请联系liufuqiang_robot@hotmail.com