CVPR 2022|精准高效估计多人3D姿态,美图&北航联合提出分布感知式单阶段模型

2022 年 3 月 19 日 极市平台
↑ 点击 蓝字  关注极市平台

来源丨AI科技评论
编辑丨极市平台

极市导读

 

本文突破性地提出分布感知式单阶段模型,用于解决极具挑战性的多人3D人体姿态估计问题。该方法通过一次网络前向推理同时获取3D空间中人体位置信息以及相对应的关键点信息,从而简化了预测流程,提高了效率。>>加入极市CV技术交流群,走在计算机视觉的最前沿

近日,计算机视觉顶会CVPR 2022公布了会议录取结果,美图影像研究院(MT Lab)与北京航空航天大学可乐实验室(CoLab)联合发表的论文被接收。

该论文突破性地提出分布感知式单阶段模型,用于解决极具挑战性的多人3D人体姿态估计问题。该方法通过一次网络前向推理同时获取3D空间中人体位置信息以及相对应的关键点信息,从而简化了预测流程,提高了效率。此外,该方法有效地学习了人体关键点的真实分布,进而提升了基于回归框架的精度。

多人3D人体姿态估计是当前的一个热点研究课题,也具有广泛的应用潜力。在计算机视觉中,基于单张RGB图片的多人3D人体姿态估计问题通常通过自顶向下或是自底向上的两阶段方法来解决,然而两阶段的方法需忍受大量的冗余计算以及复杂的后处理,其低效率深受诟病。此外,已有方法缺少对人体姿态数据分布的认知,从而无法准确地求解从2D图片到3D位置这一病态问题,以上两点限制了已有方法在实际场景中的应用。

美图影像研究院(MT Lab)与北京航空航天大学可乐实验室(CoLab)在CVPR 2022发表的论文,提出一种分布感知式单阶段模型,并利用这一模型从单张RGB图片中估计多个人在3D相机空间中的人体姿态。该方法将3D人体姿态表示为2.5D人体中心点和3D关键点偏移量,以适配图片空间的深度估计,同时这一表示将人体位置信息和对应的关键点信息进行了统一,从而使得单阶段多人3D姿态估计成为可能。

此外,该方法在模型优化过程中对人体关键点的分布进行了学习,这为关键点位置的回归预测提供了重要的指导信息,进而提升了基于回归框架的精度。这一分布学习模块可以与姿态估计模块在训练过程中通过最大似然估计一起学习,在测试过程中该模块被移除,不会带来模型推理计算量的增加。为了降低人体关键点分布学习的难度,该方法创新性地提出了一种迭代更新的策略以逐渐逼近目标分布。

该模型以全卷积的方式来实现,可以进行端到端的训练和测试。通过这样一种方式,该算法可以有效且精准地解决多人3D人体姿态估计问题,在取得和两阶段方法接近的精度的同时,也大大提升了速度。

论文链接:https://arxiv.org/abs/2203.07697

1 背景

多人3D人体姿态估计是计算机视觉中的经典问题,它被广泛地应用于AR/VR、游戏、运动分析、虚拟试衣等,近年来随着元宇宙概念的兴起,更是让这一技术备受关注。目前,通常采用两阶段方法来解决该问题:自顶向下方法,即先检测图片多个人体的位置,之后对检测到的每个人使用单人3D姿态估计模型来分别预测其姿态;自底向上方法,即先检测图片中所有人的3D关键点,之后通过相关性将这些关键点分配给对应的人体。

尽管两阶段方法取得了良好的精度,但是需要通过冗余的计算和复杂的后处理来顺序性地获取人体位置信息和关键点位置信息,这使得速率通常难以满足实际场景的部署需求,因此多人3D姿态估计算法流程亟需简化。另一方面,在缺少数据分布先验知识的情况下,从单张RGB图片中估计3D关键点位置,特别是深度信息,是一个病态问题。这使得传统的应用于2D场景的单阶段模型无法直接向3D场景进行扩展,因此学习并获取3D关键点的数据分布是进行高精度多人3D人体姿态估计的关键所在。

为了克服以上问题,该论文提出了一种分布感知式单阶段模型(Distribution-Aware Single-stage model, DAS)用于解决基于单张图片的多人3D人体姿态估计这一病态问题。DAS模型将3D人体姿态表示为2.5D人体中心点和3D人体关键点偏移,这一表示有效地适配了基于RGB图片域的深度信息预测。

同时,它也将人体位置信息和关键点位置信息进行了统一,从而使得基于单目图片的单阶段多人3D姿态估计方法成为可能。另外,DAS模型在优化过程中对3D关键点的分布进行学习,这为3D关键点的回归提供了极具价值的指导性信息,从而有效地提升了预测精度。

此外,为了缓解关键点分布估计的难度,DAS模型采用了一种迭代更新策略以逐步逼近真实分布目标,通过这样一种方式,DAS模型可以高效且精准地从单目RGB图片中一次性获取多个人的3D人体姿态估计结果。

2 单阶段多人3D姿态估计模型

在实现上,DAS模型基于回归预测框架来构建,对于给定图片,DAS模型通过一次前向预测输出图片中所包含人物的3D人体姿态。DAS模型将人体中心点表示为中心点置信度图和中心点坐标图两部分,如图1 (a) 和 (b) 所示,其中,DAS模型使用中心点置信度图来定位2D图片坐标系中人体投影中心点的位置,而使用中心点坐标图来预测3D相机坐标系内人体中心点的绝对位置。DAS模型将人体关键点建模为关键点偏移图,如图1 (c) 所示。DAS模型将中心点置信度图建模为二值图,图中每个像素点表示人体中心点是否在该位置出现,如果出现则为1,否则为0。

DAS模型将中心点坐标图以稠密图的方式进行建模,图中每个像素点编码了出现在该位置的人物中心在x、y和z方向的坐标。关键点偏移图和中心点坐标图建模方式类似,图中每个像素点编码了出现在该位置的人体关键点相对于人体中心点在x、y、z方向的偏移量。DAS模型可以在网络前向过程中以并行的方式输出以上三种信息图,从而避免了冗余计算。

此外,DAS模型可以使用这三种信息图简单地重建出多个人的3D姿态,也避免了复杂的后处理过程,与两阶段方法相比,这样一种紧凑、简单的单阶段模型可以取得更优的效率。

图1 用于多人3D人体姿态估计的分布感知式单阶段模型流程图

3 分布感知学习模型

对于回归预测框架的优化,已有工作多采用传统的L1或者L2损失函数,但研究发现这类监督训练实际上是在假设人体关键点的数据分布满足拉普拉斯分布或者高斯分布的前提下进行的模型优化[12]。然而在实际场景中,人体关键点的真实分布极为复杂,以上简单的假设与真实分布相距甚远。与现有方法不同,DAS模型在优化过程中学习3D人体关键点分布的真实分布,指导关键点回归预测的过程。

考虑到真实分布不可追踪的问题,DAS模型利用标准化流(Normalizing Flow)来达到对于模型预测结果概率估计的目标,以生成适合模型输出的分布,如图2所示。该分布感知模块可以同关键点预测模块一起在训练过程中通过最大似然估计的方法进行学习,完成学习之后,该分布感知模块会在预测过程中进行移除,这样一种分布感知式算法可以在不增加额外计算量的同时提升回归预测模型的精度。

此外,用于人体关键点预测的特征提取于人体中心点处,这一特征对于远离中心点的人体关键点来说表示能力较弱,和目标在空间上的不一致问题会引起预测的较大误差。为了缓和这一问题,该算法提出了迭代更新策略,该策略利用历史更新结果为出发点,并整合中间结果附近预测值以逐步逼近最终目标,如图3所示。

图 2 标准化流
图 3 迭代优化策略

该算法模型通过全卷积网络(Fully Convolutional Networks, FCNs)实现,训练和测试过程都可以以端到端的方式进行,如图4所示。根据实验结果,如图5所示,单阶段算法和已有state-of-the-art两阶段方法相比,可以取得接近甚至更优的精度,同时可以大幅提升速度,证明了其在解决多人3D人体姿态估计这一问题上的优越性,详细实验结果可参考表1和表2。根据单阶段算法的可视化结果,如图6所示,该算法能够适应不同的场景,例如姿势变化、人体截断以及杂乱背景等来产生精确的预测结果,这进一步说明了该算法的健壮性。

图4 分布感知式单阶段多人3D人体姿态估计网络结构
图5 与现有state-of-the-art两阶段算法对比结果
表1 CMU Panoptic Studio数据集结果比较
表2 MuPoTS-3D数据集结果比较
图6 可视化结果

4 总结

在本论文中,来自美图和北航的研究者们创新性地提出了一种分布感知式单阶段模型,用于解决极具挑战性的多人3D人体姿态估计问题。与已有的自顶向下和自底向上这种两阶段模型相比,该模型可以通过一次网络前向推理同时获取人体位置信息以及所对应的人体关键点位置信息,从而有效地简化预测流程,同时克服了已有方法在高计算成本和高模型复杂度方面的弊端。

另外,该方法成功将标准化流引进到多人3D人体姿态估计任务中以在训练过程中学习人体关键点分布,并提出迭代回归策略以缓解分布学习难度来达到逐步逼近目标的目的。通过这样一种方式,该算法可以获取数据的真实分布以有效地提升模型的回归预测精度。

研究团队

本论文由美图影像研究院(MT Lab)和北京航空航天大学可乐实验室(CoLab)研究者们共同提出。美图影像研究院(MT Lab)是美图公司致力于计算机视觉、机器学习、增强现实、云计算等领域的算法研究、工程开发和产品化落地的团队,为美图现有和未来的产品提供核心算法支持,并通过前沿技术推动美图产品发展,被称为「美图技术中枢」,曾先后多次参与CVPR、ICCV、ECCV等计算机视觉国际顶级会议,并斩获冠亚军十余项。

引用文献:

[1] JP Agnelli, M Cadeiras, Esteban G Tabak, Cristina Vilma Turner, and Eric Vanden-Eijnden. Clustering and classifica- tion through normalizing flows in feature space. Multiscale Modeling & Simulation, 2010.

[12] Jiefeng Li, Siyuan Bian, Ailing Zeng, Can Wang, Bo Pang, Wentao Liu, and Cewu Lu. Human pose regression with residual log-likelihood estimation. In ICCV, 2021.

[15] Jiahao Lin and Gim Hee Lee. Hdnet: Human depth estima- tion for multi-person camera-space localization. In ECCV, 2020.

[47] Jianan Zhen, Qi Fang, Jiaming Sun, Wentao Liu, Wei Jiang, Hujun Bao, and Xiaowei Zhou. Smap: Single-shot multi- person absolute 3d pose estimation. In ECCV, 2020.

[48] Xingyi Zhou, Dequan Wang, and Philipp Kra ̈henbu ̈hl. Ob- jects as points. arXiv preprint arXiv:1904.07850, 2019.


公众号后台回复“数据集”获取60+深度学习数据集下载~

△点击卡片关注极市平台,获取 最新CV干货
极市干货
数据集资源汇总: 10个开源工业检测数据集汇总 21个深度学习开源数据集分类汇总
算法trick 目标检测比赛中的tricks集锦 从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述: 一文弄懂各种loss function 工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~   
登录查看更多
0

相关内容

CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
16+阅读 · 2022年4月18日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【博士论文】基于深度学习的单目场景深度估计方法研究
ECCV2020 | SMAP: 单步多人绝对三维姿态估计
学术头条
10+阅读 · 2020年8月9日
ICCV 2019 | 精确的端到端的弱监督目标检测网络
AI科技评论
11+阅读 · 2019年12月9日
SkeletonNet:完整的人体三维位姿重建方法
极市平台
11+阅读 · 2019年1月11日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2021年11月1日
Arxiv
11+阅读 · 2018年4月8日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员