Our goal is to perform out-of-distribution (OOD) detection, i.e., to detect when a robot is operating in environments that are drawn from a different distribution than the environments used to train the robot. We leverage Probably Approximately Correct (PAC)-Bayes theory in order to train a policy with a guaranteed bound on performance on the training distribution. Our key idea for OOD detection then relies on the following intuition: violation of the performance bound on test environments provides evidence that the robot is operating OOD. We formalize this via statistical techniques based on p-values and concentration inequalities. The resulting approach (i) provides guaranteed confidence bounds on OOD detection including bounds on both the false positive and false negative rates of the detector and (ii) is task-driven and sensitive only to changes that impact the robot's performance. We demonstrate our approach in both simulation and hardware for a grasping task using objects with unfamiliar shapes or poses and a drone performing vision-based obstacle avoidance in unfamiliar environments (including wind disturbances and different obstacle densities). Our examples demonstrate that we can perform task-driven OOD detection within just a handful of trials. Comparisons with baselines also demonstrate the advantages of our approach in terms of providing statistical guarantees and being insensitive to task-irrelevant distribution shifts.


翻译:我们的目标是进行分配外检测,即检测机器人在与训练机器人所用环境不同的分布分布环境中运行时,发现机器人何时在与培训机器人所用环境不同的环境中运行。我们利用可能大致正确(PAC)-Bayes理论,以培训一项有一定约束的培训分布性运行的保有政策。我们检测OOOD的关键想法随后依赖于以下直觉:违反测试环境约束的性能,提供机器人运行OOD的证据。我们通过基于p价值和浓度不平等的统计技术正式确定这一点。由此产生的方法(一)为OOD检测提供有保障的信任界限,包括探测器的假正负率和假负率的界限。以及(二)只是任务驱动和敏感度,仅针对影响机器人性能的变化。我们展示了我们利用不熟悉形状或外形的物体和在不熟悉环境中(包括风扰和不同障碍密度)进行基于愿景的阻碍来掌握任务的方法。我们的实例表明,我们可以在少数次试验中进行任务驱动的OOD检测,包括检测,只是对探测器的虚假正负率和误差的实验方法,只是任务驱动对影响机器人性变化的参数进行对比。我们还比较了统计任务分配的基线。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
38+阅读 · 2021年8月31日
Arxiv
64+阅读 · 2021年6月18日
VIP会员
相关VIP内容
专知会员服务
52+阅读 · 2020年9月7日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员