The ultimate goal for an inference model is to be robust and functional in real life applications. However, training vs. test data domain gaps often negatively affect model performance. This issue is especially critical for the monocular 3D human pose estimation problem, in which 3D human data is often collected in a controlled lab setting. In this paper, we focus on alleviating the negative effect of domain shift by presenting our adapted human pose (AHuP) approach that addresses adaptation problems in both appearance and pose spaces. AHuP is built around a practical assumption that in real applications, data from target domain could be inaccessible or only limited information can be acquired. We illustrate the 3D pose estimation performance of AHuP in two scenarios. First, when source and target data differ significantly in both appearance and pose spaces, in which we learn from synthetic 3D human data (with zero real 3D human data) and show comparable performance with the state-of-the-art 3D pose estimation models that have full access to the real 3D human pose benchmarks for training. Second, when source and target datasets differ mainly in the pose space, in which AHuP approach can be applied to further improve the performance of the state-of-the-art models when tested on the datasets different from their training dataset.


翻译:假设模型的最终目标是在现实生活中应用中保持稳健和功能性。然而,培训与测试数据领域的差距往往对模型性能产生负面的影响。对于单立体人构成的估计问题来说,这一问题尤为关键,因为3D人构成的估计问题往往在受控制的实验室环境中收集3D人数据。在本文件中,我们的重点是通过介绍我们适应的人体构成(AHuP)方法,解决外观和构成空间的适应问题,减轻域变的负面影响。AHuP的构建是基于一种实际假设,即在实际应用中,目标领域的数据可能无法获取,或者只能获得有限的信息。我们用两种假设来说明3D对AHuP的估计性能。首先,当源和目标数据在外观和构成空间方面差异很大时,我们从合成的3D人类数据(实际为零3D人数据)中学习,并显示与最先进的3D构成估计模型的可充分获取实际3D人构成的培训基准的可比较性能。第二,当源和目标数据集主要在组合空间中存在差异时,在应用AHuP方法时,在不同的数据模型时,可以对其不同的数据进行测试。

1
下载
关闭预览

相关内容

MonoGRNet:单目3D目标检测的通用框架(TPAMI2021)
专知会员服务
17+阅读 · 2021年5月3日
3D目标检测进展综述
专知会员服务
186+阅读 · 2020年4月24日
专知会员服务
153+阅读 · 2020年4月21日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【泡泡一分钟】Matterport3D: 从室内RGBD数据集中训练 (3dv-22)
泡泡机器人SLAM
16+阅读 · 2017年12月31日
Arxiv
27+阅读 · 2020年12月24日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
VIP会员
Top
微信扫码咨询专知VIP会员