We present DreamAvatar, a text-and-shape guided framework for generating high-quality 3D human avatars with controllable poses. While encouraging results have been produced by recent methods on text-guided 3D common object generation, generating high-quality human avatars remains an open challenge due to the complexity of the human body's shape, pose, and appearance. We propose DreamAvatar to tackle this challenge, which utilizes a trainable NeRF for predicting density and color features for 3D points and a pre-trained text-to-image diffusion model for providing 2D self-supervision. Specifically, we leverage SMPL models to provide rough pose and shape guidance for the generation. We introduce a dual space design that comprises a canonical space and an observation space, which are related by a learnable deformation field through the NeRF, allowing for the transfer of well-optimized texture and geometry from the canonical space to the target posed avatar. Additionally, we exploit a normal-consistency regularization to allow for more vivid generation with detailed geometry and texture. Through extensive evaluations, we demonstrate that DreamAvatar significantly outperforms existing methods, establishing a new state-of-the-art for text-and-shape guided 3D human generation.


翻译:我们提出了DreamAvatar,这是一个文本和形状引导的框架,用于生成具有可控姿势的高质量三维人形化身。尽管最近的方法在文本引导的三维普通物体生成方面产生了令人满意的结果,但生成高质量的人形化身仍然是一个开放的挑战,因为人体的形状,姿势和外观非常复杂。我们提出了DreamAvatar来解决这个挑战,它利用可训练的NeRF来预测三维点的密度和颜色特征,并利用预训练的文本到图像扩散模型提供二维自监督。具体来说,我们利用SMPL模型提供粗略的姿势和形状引导来生成化身。我们引入了一个双空间设计,包括一个规范空间和一个观察空间,它们通过NeRF的可学习变形场相关,允许将优化良好的纹理和几何体从规范空间转移到目标设定的化身。此外,我们利用法线一致性规则来实现更丰富的生成,具备详细的几何和纹理。通过广泛的评估,我们证明DreamAvatar明显优于现有方法,并为文本和形状引导的三维人形生成建立了一个新的最高水平。

0
下载
关闭预览

相关内容

【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
创世游戏:Diffusion Model的非数学解释
PaperWeekly
6+阅读 · 2022年11月12日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
1+阅读 · 2023年5月19日
Arxiv
0+阅读 · 2023年5月19日
Arxiv
13+阅读 · 2022年10月27日
Arxiv
27+阅读 · 2020年12月24日
VIP会员
相关VIP内容
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员