Recovering high-quality 3D human motion in complex scenes from monocular videos is important for many applications, ranging from AR/VR to robotics. However, capturing realistic human-scene interactions, while dealing with occlusions and partial views, is challenging; current approaches are still far from achieving compelling results. We address this problem by proposing LEMO: LEarning human MOtion priors for 4D human body capture. By leveraging the large-scale motion capture dataset AMASS, we introduce a novel motion smoothness prior, which strongly reduces the jitters exhibited by poses recovered over a sequence. Furthermore, to handle contacts and occlusions occurring frequently in body-scene interactions, we design a contact friction term and a contact-aware motion infiller obtained via per-instance self-supervised training. To prove the effectiveness of the proposed motion priors, we combine them into a novel pipeline for 4D human body capture in 3D scenes. With our pipeline, we demonstrate high-quality 4D human body capture, reconstructing smooth motions and physically plausible body-scene interactions. The code and data are available at https://sanweiliti.github.io/LEMO/LEMO.html.


翻译:在复杂场景中从单镜头视频中恢复高品质的 3D 人类运动,对于从AR/VR到机器人等许多应用来说都很重要。然而,捕捉现实的人类-生理互动,同时处理隔离和部分观点,具有挑战性;目前的方法还远远没有取得令人信服的结果。我们通过提议LEMO来解决这个问题:在4D人体捕捉中,将人类运动前程清除为4D人体捕捉。通过利用大型运动捕获数据 AMASS,我们引入了一种新的运动平滑,从而大大减少了通过成形恢复到一个序列的立体所展示的杂音。此外,为了处理在身体-显形互动中经常发生的接触和隐蔽,我们设计了一个接触摩擦术语和一个通过per- Instance自我监控培训获得的触觉运动。为了证明拟议的运动前程的有效性,我们将它们合并为4D人体捕捉取的新管道。我们用管道展示高品质的4D 人身体捕捉取,重建平稳的动作和物理上可信的身体-cenene互动。 代码和数据可在 httpssss.sss.s.ss.sssss.ssss.

0
下载
关闭预览

相关内容

最新《域自适应视觉应用》ECCV2020教程,67页PPT
专知会员服务
27+阅读 · 2020年12月24日
【ECCV2020-Oral-谷歌】对抗生成语法的人体活动预测
专知会员服务
5+阅读 · 2020年8月12日
商业数据分析,39页ppt
专知会员服务
162+阅读 · 2020年6月2日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
“CVPR 2020 接受论文列表 1470篇论文都在这了
已删除
将门创投
7+阅读 · 2020年3月13日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
VIP会员
相关VIP内容
最新《域自适应视觉应用》ECCV2020教程,67页PPT
专知会员服务
27+阅读 · 2020年12月24日
【ECCV2020-Oral-谷歌】对抗生成语法的人体活动预测
专知会员服务
5+阅读 · 2020年8月12日
商业数据分析,39页ppt
专知会员服务
162+阅读 · 2020年6月2日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
已删除
将门创投
7+阅读 · 2020年3月13日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员