Human imitation has become topical recently, driven by GAN's ability to disentangle human pose and body content. However, the latest methods hardly focus on 3D information, and to avoid self-occlusion, a massive amount of input images are needed. In this paper, we propose RIN, a novel volume-based framework for reconstructing a textured 3D model from a single picture and imitating a subject with the generated model. Specifically, to estimate most of the human texture, we propose a U-Net-like front-to-back translation network. With both front and back images input, the textured volume recovery module allows us to color a volumetric human. A sequence of 3D poses then guides the colored volume via Flowable Disentangle Networks as a volume-to-volume translation task. To project volumes to a 2D plane during training, we design a differentiable depth-aware renderer. Our experiments demonstrate that our volume-based model is adequate for human imitation, and the back view can be estimated reliably using our network. While prior works based on either 2D pose or semantic map often fail for the unstable appearance of a human, our framework can still produce concrete results, which are competitive to those imagined from multi-view input.


翻译:人类模仿最近成为热门话题,因为GAN能够解开人类表面和身体内容。然而,最新方法几乎不注重3D信息,也避免自我封闭,因此需要大量输入图像。在本文中,我们提议使用新的卷本框架,即“RIN”,用于从单一图片中重建一个纹理的3D模型,并用生成模型模拟一个主题。具体地说,为了估计大部分人类纹理,我们建议了一种U-Net类的前对后翻译网络。用前和后图像输入,文本的体积恢复模块允许我们给一个体积人颜色。3D序列将一个彩色的体积通过可流动解剖网络作为量翻译任务加以指导。为了在培训期间将体积投到2D平面,我们设计了一个不同的深度感知化模型。我们实验表明,我们的体积模型足以模拟人类的模样,而后视图可以可靠地利用我们的网络来估计。虽然以前基于2D面图或语义图的作品仍然在2D面或语义图上,但那些模型往往无法产生不稳定的多面的人类输入结果。

0
下载
关闭预览

相关内容

【DeepMind】CrossTransformers: 空间感知的小样本迁移
专知会员服务
40+阅读 · 2020年7月26日
专知会员服务
110+阅读 · 2020年3月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机视觉领域顶会CVPR 2018 接受论文列表
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
Arxiv
0+阅读 · 2021年1月6日
Arxiv
4+阅读 · 2019年8月7日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员