Practical object pose estimation demands robustness against occlusions to the target object. State-of-the-art (SOTA) object pose estimators take a two-stage approach, where the first stage predicts 2D landmarks using a deep network and the second stage solves for 6DOF pose from 2D-3D correspondences. Albeit widely adopted, such two-stage approaches could suffer from novel occlusions when generalising and weak landmark coherence due to disrupted features. To address these issues, we develop a novel occlude-and-blackout batch augmentation technique to learn occlusion-robust deep features, and a multi-precision supervision architecture to encourage holistic pose representation learning for accurate and coherent landmark predictions. We perform careful ablation tests to verify the impact of our innovations and compare our method to SOTA pose estimators. Without the need of any post-processing or refinement, our method exhibits superior performance on the LINEMOD dataset. On the YCB-Video dataset our method outperforms all non-refinement methods in terms of the ADD(-S) metric. We also demonstrate the high data-efficiency of our method. Our code is available at http://github.com/BoChenYS/ROPE


翻译:对目标对象的封闭性进行强力估计。 状态- 艺术( SOTA) 对象显示, 估计者采取两阶段方法, 第一阶段预测使用深网络的2D里程碑, 6DF 的第二阶段解决方案来自2D-3D 对应的2D-3D通信。 尽管广泛采用, 这种两阶段方法在概括性时可能会受到新颖的封闭性的影响, 并且由于特征的中断而导致的里程碑性一致性薄弱。 为了解决这些问题, 我们开发了一种新的 occlude- and-blackout 批量增强技术, 以学习 clusion-robust 深度特征, 以及多精密监督结构, 以鼓励以整体形式学习用于准确和连贯的标志性预测的2DOF 标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志性标志

0
下载
关闭预览

相关内容

最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
100+阅读 · 2020年7月16日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
CVPR2019年热门论文及开源代码分享
深度学习与NLP
7+阅读 · 2019年6月3日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
11+阅读 · 2019年4月15日
VIP会员
相关资讯
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
CVPR2019年热门论文及开源代码分享
深度学习与NLP
7+阅读 · 2019年6月3日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员