Body orientation estimation provides crucial visual cues in many applications, including robotics and autonomous driving. It is particularly desirable when 3-D pose estimation is difficult to infer due to poor image resolution, occlusion or indistinguishable body parts. We present COCO-MEBOW (Monocular Estimation of Body Orientation in the Wild), a new large-scale dataset for orientation estimation from a single in-the-wild image. The body-orientation labels for around 130K human bodies within 55K images from the COCO dataset have been collected using an efficient and high-precision annotation pipeline. We also validated the benefits of the dataset. First, we show that our dataset can substantially improve the performance and the robustness of a human body orientation estimation model, the development of which was previously limited by the scale and diversity of the available training data. Additionally, we present a novel triple-source solution for 3-D human pose estimation, where 3-D pose labels, 2-D pose labels, and our body-orientation labels are all used in joint training. Our model significantly outperforms state-of-the-art dual-source solutions for monocular 3-D human pose estimation, where training only uses 3-D pose labels and 2-D pose labels. This substantiates an important advantage of MEBOW for 3-D human pose estimation, which is particularly appealing because the per-instance labeling cost for body orientations is far less than that for 3-D poses. The work demonstrates high potential of MEBOW in addressing real-world challenges involving understanding human behaviors. Further information of this work is available at https://chenyanwu.github.io/MEBOW/.


翻译:身体方向估计在许多应用中提供了关键的视觉提示, 包括机器人和自主驱动。 当3D构成的估算由于图像分辨率差、 隐蔽性或无法分辨的身体部分而难以推断时, 特别可取。 我们展示了 COCO- MEBOW( 野生身体方向的宏观估计), 这是一个新的大型数据集, 用于从单一的动态图像中进行定向估计。 在 COCOCO数据集中, 大约 130K 人体的体定向标签是使用高效和高精度的注解管道收集的。 我们还验证了数据集的优点。 首先, 我们显示, 我们的数据集可以大大改善人体方向估计模型的性能和坚固性, 之前由于现有培训数据的规模和多样性而受到限制。 此外, 我们为 3D 人的外观( 3D) 图像估算提供了新的三源解决方案, 其中3D 构成标签、 2D 标签的标签和我们身体方向标签的标签 都用于联合培训。 我们的模型大大超越了 IM- D 的 组织 的 组织 组织 组织 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 的 组织 组织 的 组织 组织 组织 组织 组织 的 组织 组织 的 的 组织 组织 组织 的 的 的 的 组织 组织 组织 的 组织 的 的 的 组织 组织 组织 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 的 的 的 组织 的 组织 组织 的 的 组织 组织 组织 组织 组织 的 组织 组织 组织 的 的 的 的 组织 组织 的 的 组织 的 的 组织 的 的 的 的 的 的 的 的 的 的 组织 的 的 组织 组织 组织 组织 组织 的 的 的 的 的 组织 组织 的 的 的 的 的 的 组织 组织 的 组织 的 的 的 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 组织

1
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
27+阅读 · 2020年12月24日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Arxiv
5+阅读 · 2018年4月13日
VIP会员
Top
微信扫码咨询专知VIP会员