3D human shape and pose estimation is the essential task for human motion analysis, which is widely used in many 3D applications. However, existing methods cannot simultaneously capture the relations at multiple levels, including spatial-temporal level and human joint level. Therefore they fail to make accurate predictions in some hard scenarios when there is cluttered background, occlusion, or extreme pose. To this end, we propose Multi-level Attention Encoder-Decoder Network (MAED), including a Spatial-Temporal Encoder (STE) and a Kinematic Topology Decoder (KTD) to model multi-level attentions in a unified framework. STE consists of a series of cascaded blocks based on Multi-Head Self-Attention, and each block uses two parallel branches to learn spatial and temporal attention respectively. Meanwhile, KTD aims at modeling the joint level attention. It regards pose estimation as a top-down hierarchical process similar to SMPL kinematic tree. With the training set of 3DPW, MAED outperforms previous state-of-the-art methods by 6.2, 7.2, and 2.4 mm of PA-MPJPE on the three widely used benchmarks 3DPW, MPI-INF-3DHP, and Human3.6M respectively. Our code is available at https://github.com/ziniuwan/maed.


翻译:3D人类形状和估计是人类运动分析的基本任务,在许多3D应用中广泛使用。然而,现有方法不能同时捕捉多层次的关系,包括空间-时空水平和人类联合水平。因此,当背景、封闭性或极端面形成时,它们无法在某些硬情景中作出准确预测。为此,我们提议多层关注编码-Decoder网络(MAED),包括空间-时空编码器和九元表层解码器(KTD),以在统一的框架内模拟多层次的关注。STE由一系列基于多领导人自我关注的级联队组成,每个区都使用两个平行分支分别学习时空关注。与此同时,KTD旨在模拟联合关注的模型。它把估计视为一个上下层的级别进程,类似于SMPL运动树。在3DPW的培训中,MAED超越了以6.2、7.2、7.2和2.4毫米MAM-MDM 分别用于3MA-MAP 和2.4毫米 MAMPA-MA-MA-MA-MA-M-M-C 3号基准中。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年6月12日
专知会员服务
15+阅读 · 2021年6月6日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
【MLSS2020】最新《深度学习基础》视频讲解,42页ppt
专知会员服务
46+阅读 · 2020年8月5日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
计算机视觉领域顶会CVPR 2018 接受论文列表
Arxiv
11+阅读 · 2019年4月15日
Arxiv
5+阅读 · 2018年5月16日
Arxiv
5+阅读 · 2018年4月13日
Arxiv
7+阅读 · 2017年12月26日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员