如何确保使用高维度传感器观测(例如视觉)的机器人的控制策略安全(如自主无人机或家庭机器人)?由于机器学习技术能够处理丰富的感知输入,因此它们具有很大的吸引力。然而,在感知和控制流程中包含基于学习的组件的策略通常难以推广到新环境。考虑一种家庭机器人,它经过在数千个不同的环境、物体和目标位置上的训练,可以找到、抓取和移动物体。这种复杂的机器人不可避免地会遇到它没有准备好的新环境。针对这种机器人系统的最先进的策略合成方法(例如基于深度强化学习或模仿学习的方法)通常无法提供安全保证,并可能导致在新环境中发生灾难性失败的策略。
在这篇论文中,我们将介绍我们开发的分析机器人系统在新的、可能不安全的环境中部署时安全性的技术。我们使用并发展泛化理论中的工具,以便利用机器人学习中的统计保证,在两个关键研究方向上取得进展。 (i) 我们提供了保证检测机器人系统是否准备好在当前环境中操作以及可能导致故障的方法。有了这些知识,可以部署紧急操作或备用安全策略,以保证机器人的安全。 (ii) 我们还为与训练数据集分布不一致的设置开发了性能界限。在这两种情况下,我们将这些技术应用于具有挑战性的问题,包括基于视觉的无人机导航和自动驾驶汽车规划,并证明了为机器人系统提供强有力安全保证的能力。