Visual navigation by mobile robots is classically tackled through SLAM plus optimal planning, and more recently through end-to-end training of policies implemented as deep networks. While the former are often limited to waypoint planning, but have proven their efficiency even on real physical environments, the latter solutions are most frequently employed in simulation, but have been shown to be able learn more complex visual reasoning, involving complex semantical regularities. Navigation by real robots in physical environments is still an open problem. End-to-end training approaches have been thoroughly tested in simulation only, with experiments involving real robots being restricted to rare performance evaluations in simplified laboratory conditions. In this work we present an in-depth study of the performance and reasoning capacities of real physical agents, trained in simulation and deployed to two different physical environments. Beyond benchmarking, we provide insights into the generalization capabilities of different agents training in different conditions. We visualize sensor usage and the importance of the different types of signals. We show, that for the PointGoal task, an agent pre-trained on wide variety of tasks and fine-tuned on a simulated version of the target environment can reach competitive performance without modelling any sim2real transfer, i.e. by deploying the trained agent directly from simulation to a real physical robot.


翻译:移动机器人的视觉导航是典型的,通过SLAM+最佳规划以及最近通过对深层网络所实施的政策进行端到端培训来处理,前者通常限于路针规划,但证明即使在实际物理环境中也是有效的,后者是最经常在模拟中使用的,但证明能够学习更复杂的视觉推理,涉及复杂的语义规律。在物理环境中真正的机器人的导航仍然是一个尚未解决的问题。在模拟中,仅对端到端的培训方法进行了彻底测试,涉及实际机器人的实验仅限于在简化实验室条件下的罕见性能评估。在这项工作中,我们深入研究了真实物理剂的性能和推理能力,对其进行了模拟培训并部署到两个不同的物理环境。除了基准外,我们还对不同物剂培训的通用能力进行了深入了解。我们设想传感器的使用和不同类型信号的重要性。我们显示,对于Point目标任务而言,一个代理商在广泛的任务上预先接受了培训,并且对目标环境的模拟版本进行了微调。通过直接模拟,可以达到具有竞争性的性能,而不用模拟任何经过训练的物理机器人。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年10月9日
专知会员服务
26+阅读 · 2021年7月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
自动驾驶仿真软件列表
智能交通技术
13+阅读 · 2019年5月9日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
已删除
将门创投
5+阅读 · 2018年2月28日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
自动驾驶仿真软件列表
智能交通技术
13+阅读 · 2019年5月9日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
已删除
将门创投
5+阅读 · 2018年2月28日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
Top
微信扫码咨询专知VIP会员