Body orientation estimation provides crucial visual cues in many applications, including robotics and autonomous driving. It is particularly desirable when 3-D pose estimation is difficult to infer due to poor image resolution, occlusion or indistinguishable body parts. We present COCO-MEBOW (Monocular Estimation of Body Orientation in the Wild), a new large-scale dataset for orientation estimation from a single in-the-wild image. The body-orientation labels for around 130K human bodies within 55K images from the COCO dataset have been collected using an efficient and high-precision annotation pipeline. We also validated the benefits of the dataset. First, we show that our dataset can substantially improve the performance and the robustness of a human body orientation estimation model, the development of which was previously limited by the scale and diversity of the available training data. Additionally, we present a novel triple-source solution for 3-D human pose estimation, where 3-D pose labels, 2-D pose labels, and our body-orientation labels are all used in joint training. Our model significantly outperforms state-of-the-art dual-source solutions for monocular 3-D human pose estimation, where training only uses 3-D pose labels and 2-D pose labels. This substantiates an important advantage of MEBOW for 3-D human pose estimation, which is particularly appealing because the per-instance labeling cost for body orientations is far less than that for 3-D poses. The work demonstrates high potential of MEBOW in addressing real-world challenges involving understanding human behaviors. Further information of this work is available at https://chenyanwu.github.io/MEBOW/.
翻译:身体方向估计在许多应用中提供了关键的视觉提示, 包括机器人和自主驱动。 当3D构成的估算由于图像分辨率差、 隐蔽性或无法分辨的身体部分而难以推断时, 特别可取。 我们展示了 COCO- MEBOW( 野生身体方向的宏观估计), 这是一个新的大型数据集, 用于从单一的动态图像中进行定向估计。 在 COCOCO数据集中, 大约 130K 人体的体定向标签是使用高效和高精度的注解管道收集的。 我们还验证了数据集的优点。 首先, 我们显示, 我们的数据集可以大大改善人体方向估计模型的性能和坚固性, 之前由于现有培训数据的规模和多样性而受到限制。 此外, 我们为 3D 人的外观( 3D) 图像估算提供了新的三源解决方案, 其中3D 构成标签、 2D 标签的标签和我们身体方向标签的标签 都用于联合培训。 我们的模型大大超越了 IM- D 的 组织 的 组织 组织 组织 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 的 组织 组织 的 组织 组织 组织 组织 组织 的 组织 组织 的 的 组织 组织 组织 的 的 的 的 组织 组织 组织 的 组织 的 的 的 组织 组织 组织 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 组织 的 的 的 组织 的 组织 组织 的 的 组织 组织 组织 组织 组织 的 组织 组织 组织 的 的 的 的 组织 组织 的 的 组织 的 的 组织 的 的 的 的 的 的 的 的 的 的 组织 的 的 组织 组织 组织 组织 组织 的 的 的 的 的 组织 组织 的 的 的 的 的 的 组织 组织 的 组织 的 的 的 组织 组织 的 组织 组织 组织 组织 组织 组织 组织 组织