Simultaneous object recognition and pose estimation are two key functionalities for robots to safely interact with humans as well as environments. Although both object recognition and pose estimation use visual input, most state-of-the-art tackles them as two separate problems since the former needs a view-invariant representation while object pose estimation necessitates a view-dependent description. Nowadays, multi-view Convolutional Neural Network (MVCNN) approaches show state-of-the-art classification performance. Although MVCNN object recognition has been widely explored, there has been very little research on multi-view object pose estimation methods, and even less on addressing these two problems simultaneously. The pose of virtual cameras in MVCNN methods is often pre-defined in advance, leading to bound the application of such approaches. In this paper, we propose an approach capable of handling object recognition and pose estimation simultaneously. In particular, we develop a deep object-agnostic entropy estimation model, capable of predicting the best viewpoints of a given 3D object. The obtained views of the object are then fed to the network to simultaneously predict the pose and category label of the target object. Experimental results showed that the views obtained from such positions are descriptive enough to achieve a good accuracy score. Code is available online at: https://github.com/tparisotto/more_mvcnn


翻译:同时的物体识别和估计是机器人安全地与人类和环境互动的两个关键功能。虽然对物体的识别和估计都使用视觉输入,但大多数最先进的技术将这两个问题作为两个不同的问题处理,因为前者需要视觉变化的表达方式,而物体则需要根据视觉进行估计。如今,多视图共振神经网络(MVCNN)方法显示最先进的分类性能。虽然对MVCNN物体的识别进行了广泛探讨,但多视图对象的识别构成估计方法的研究很少,更没有同时解决这两个问题的研究。MVCNN方法中的虚拟相机的配置往往是预先界定的,从而束缚了这些方法的应用。在本文件中,我们提出了一种能够同时处理物体识别和估计的方法。特别是,我们开发了一个能预测给定的3D对象最佳观点的深天体-基因估计模型。随后获得的物体观点被反馈到网络,以同时预测配置/分类目标位置。MVCNN方法中的虚拟相机的配置和分类往往预先界定,从而约束这些方法的应用。在本文件中,我们提出了一种能够同时处理物体识别和估计对象的精度的方法。实验结果,从MACQ@tototototototoal 得到的精度是充分的在线定位。

0
下载
关闭预览

相关内容

基于深度学习的表面缺陷检测方法综述
专知会员服务
84+阅读 · 2020年5月31日
3D目标检测进展综述
专知会员服务
188+阅读 · 2020年4月24日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉领域顶会CVPR 2018 接受论文列表
Arxiv
0+阅读 · 2021年4月30日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关VIP内容
基于深度学习的表面缺陷检测方法综述
专知会员服务
84+阅读 · 2020年5月31日
3D目标检测进展综述
专知会员服务
188+阅读 · 2020年4月24日
相关资讯
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉领域顶会CVPR 2018 接受论文列表
Top
微信扫码咨询专知VIP会员