Deep learning-based object pose estimators are often unreliable and overconfident especially when the input image is outside the training domain, for instance, with sim2real transfer. Efficient and robust uncertainty quantification (UQ) in pose estimators is critically needed in many robotic tasks. In this work, we propose a simple, efficient, and plug-and-play UQ method for 6-DoF object pose estimation. We ensemble 2-3 pre-trained models with different neural network architectures and/or training data sources, and compute their average pairwise disagreement against one another to obtain the uncertainty quantification. We propose four disagreement metrics, including a learned metric, and show that the average distance (ADD) is the best learning-free metric and it is only slightly worse than the learned metric, which requires labeled target data. Our method has several advantages compared to the prior art: 1) our method does not require any modification of the training process or the model inputs; and 2) it needs only one forward pass for each model. We evaluate the proposed UQ method on three tasks where our uncertainty quantification yields much stronger correlations with pose estimation errors than the baselines. Moreover, in a real robot grasping task, our method increases the grasping success rate from 35% to 90%.


翻译:深深学习对象的估测值往往不可靠和过于自信, 特别是当输入图像在培训领域之外时, 例如, 模拟转移 。 许多机器人任务都非常需要高效力和强力的假估测值的不确定性量化( UQ ) 。 在这项工作中, 我们为 6- DoF 对象提出了简单、 高效、 插插插和游戏的 UQ 方法 进行估计 。 我们用不同的神经网络架构和/或培训数据源来混合2-3 预培训模型, 并计算出它们彼此之间的平均对对比, 以获得不确定性的量化。 我们建议了四个差异度指标, 包括一个学习的衡量标准, 并显示平均距离( UQ) 是最佳的无学习指标, 并且比学得的衡量标准略微差一些, 需要标注目标数据。 我们的方法与前一款相比有几个优点:(1) 我们的方法不需要对培训进程或模型输入作任何修改; 和(2) 我们只需要对每个模型做一个前导。 我们评估了三个任务的拟议UQ方法, 我们的不确定性量化方法在其中的三项任务中, 我们的不确定性量化能产生更强烈的关联性关系, 与35 和理解的正确度比理解的概率率率率 。

0
下载
关闭预览

相关内容

MIT最新《贝叶斯深度学习》综述论文,37页pdf
专知会员服务
50+阅读 · 2021年1月4日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
163+阅读 · 2020年3月18日
专知会员服务
53+阅读 · 2020年3月16日
利用Uncertainty修正Domain Adaptation中的伪标签
极市平台
3+阅读 · 2020年4月16日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月16日
Arxiv
0+阅读 · 2021年5月13日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
5+阅读 · 2018年4月13日
Arxiv
6+阅读 · 2018年3月29日
VIP会员
Top
微信扫码咨询专知VIP会员