Humans are able to form a complex mental model of the environment they move in. This mental model captures geometric and semantic aspects of the scene, describes the environment at multiple levels of abstractions (e.g., objects, rooms, buildings), includes static and dynamic entities and their relations (e.g., a person is in a room at a given time). In contrast, current robots' internal representations still provide a partial and fragmented understanding of the environment, either in the form of a sparse or dense set of geometric primitives (e.g., points, lines, planes, voxels) or as a collection of objects. This paper attempts to reduce the gap between robot and human perception by introducing a novel representation, a 3D Dynamic Scene Graph(DSG), that seamlessly captures metric and semantic aspects of a dynamic environment. A DSG is a layered graph where nodes represent spatial concepts at different levels of abstraction, and edges represent spatio-temporal relations among nodes. Our second contribution is Kimera, the first fully automatic method to build a DSG from visual-inertial data. Kimera includes state-of-the-art techniques for visual-inertial SLAM, metric-semantic 3D reconstruction, object localization, human pose and shape estimation, and scene parsing. Our third contribution is a comprehensive evaluation of Kimera in real-life datasets and photo-realistic simulations, including a newly released dataset, uHumans2, which simulates a collection of crowded indoor and outdoor scenes. Our evaluation shows that Kimera achieves state-of-the-art performance in visual-inertial SLAM, estimates an accurate 3D metric-semantic mesh model in real-time, and builds a DSG of a complex indoor environment with tens of objects and humans in minutes. Our final contribution shows how to use a DSG for real-time hierarchical semantic path-planning. The core modules in Kimera are open-source.


翻译:人类能够形成一个复杂的心理模型。 这种智能模型可以捕捉到场景的几何和语义学方面,描述多种程度的抽象环境(例如物体、房间、建筑物),包括静态和动态实体及其关系(例如一个人在一个特定时间在房间里)。相比之下,目前的机器人内部表现仍然提供了对环境的局部和零散的理解,其形式为:低度或密集的几何原始(例如点、线、飞机、陶轮)或一系列物体。这一智能模型试图通过引入新式的演示、3D动态显示动态环境的度和动态实体关系(例如,一个人在一个特定时间在房间里)。 相比之下,目前的机器人内部表现仍然提供了对环境的局部和分散的理解,其形式为:低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度、低度数据显示。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2021年9月15日
专知会员服务
85+阅读 · 2019年12月13日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡汇总】最强 SLAM Datasets 合辑
泡泡机器人SLAM
16+阅读 · 2019年5月27日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Arxiv
0+阅读 · 2021年12月14日
Using Scene Graph Context to Improve Image Generation
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2021年9月15日
专知会员服务
85+阅读 · 2019年12月13日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
【泡泡汇总】最强 SLAM Datasets 合辑
泡泡机器人SLAM
16+阅读 · 2019年5月27日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Top
微信扫码咨询专知VIP会员