4D reconstruction of human-object interaction is critical for immersive VR/AR experience and human activity understanding. Recent advances still fail to recover fine geometry and texture results from sparse RGB inputs, especially under challenging human-object interactions scenarios. In this paper, we propose a neural human performance capture and rendering system to generate both high-quality geometry and photo-realistic texture of both human and objects under challenging interaction scenarios in arbitrary novel views, from only sparse RGB streams. To deal with complex occlusions raised by human-object interactions, we adopt a layer-wise scene decoupling strategy and perform volumetric reconstruction and neural rendering of the human and object. Specifically, for geometry reconstruction, we propose an interaction-aware human-object capture scheme that jointly considers the human reconstruction and object reconstruction with their correlations. Occlusion-aware human reconstruction and robust human-aware object tracking are proposed for consistent 4D human-object dynamic reconstruction. For neural texture rendering, we propose a layer-wise human-object rendering scheme, which combines direction-aware neural blending weight learning and spatial-temporal texture completion to provide high-resolution and photo-realistic texture results in the occluded scenarios. Extensive experiments demonstrate the effectiveness of our approach to achieve high-quality geometry and texture reconstruction in free viewpoints for challenging human-object interactions.


翻译:4D 人类和物体相互作用的重建,对于沉浸在VR/AR/AR的经验和人类活动的理解至关重要。最近的进展仍然未能从稀疏的 RGB投入中恢复精细的几何和质制结果,特别是在具有挑战性的人类和物体相互作用设想方案下。在本文件中,我们提议了一种神经性人类性能捕捉和造型系统,以便在具有挑战性的相互作用设想中产生高质量的人类和物体的高度几何和光现实质质质质质素,这种系统只能来自稀薄的 RGB 流。为了处理由人类和物体相互作用引起的复杂的隔离,我们采取了一种分层脱色战略,并进行体积重建,以及人类和物体的神经质素质再造。具体来说,为了进行几何性重建,我们提出了一种交互性互动,共同考虑人类重建和目标重建及其相互关系。建议采用封闭性人类和强力性能天体物体物体的物体追踪,以便一致的4D 人类-obotive动态动态动态重建。关于神经性图解的分层人类成型转换计划,我们提出了一种分向人类和神经质质质制式的图案质制式的模型的模型,将人类高度的理论级再演化结构化结构化结构化的模型的模型的学习和空间级制成结果提供我们高制成结果的理论式的理论性、制成成为我们高制式的理论性制式式的理论式的理论式的理论式的理论式的理论制成结果,以演示式的理论制式的理论式的模型的理论制成和空间制成结果,提供我们制成为在高制式的理论性制式的理论制式的理论制式的理论性制式的理论制式的理论式的理论式的理论性制成和空间制式的理论性制式的理论性制式的理论制式的研制式的造制式的造制式的研制的研制式的研制的研制式制式制式制式制式制式的研制式的研制式的研制成结果。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
专知会员服务
110+阅读 · 2020年3月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
轻量attention模块:Spatial Group-wise Enhance
极市平台
15+阅读 · 2019年7月3日
Spatial Group-wise Enhance算法详解
人工智能前沿讲习班
9+阅读 · 2019年6月13日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
5+阅读 · 2021年2月8日
Arxiv
8+阅读 · 2019年5月20日
VIP会员
相关资讯
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
轻量attention模块:Spatial Group-wise Enhance
极市平台
15+阅读 · 2019年7月3日
Spatial Group-wise Enhance算法详解
人工智能前沿讲习班
9+阅读 · 2019年6月13日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员