In this paper, we propose HeadNeRF, a novel NeRF-based parametric head model that integrates the neural radiance field to the parametric representation of the human head. It can render high fidelity head images in real-time, and supports directly controlling the generated images' rendering pose and various semantic attributes. Different from existing related parametric models, we use the neural radiance fields as a novel 3D proxy instead of the traditional 3D textured mesh, which makes that HeadNeRF is able to generate high fidelity images. However, the computationally expensive rendering process of the original NeRF hinders the construction of the parametric NeRF model. To address this issue, we adopt the strategy of integrating 2D neural rendering to the rendering process of NeRF and design novel loss terms. As a result, the rendering speed of HeadNeRF can be significantly accelerated, and the rendering time of one frame is reduced from 5s to 25ms. The novel-designed loss terms also improve the rendering accuracy, and the fine-level details of the human head, such as the gaps between teeth, wrinkles, and beards, can be represented and synthesized by HeadNeRF. Extensive experimental results and several applications demonstrate its effectiveness. We will release the code and trained model to the public.


翻译:在本文中,我们提出HeadNeRF,这是一个基于NeRF的新型神经光亮场和人体头部的参数性头型模型,它能实时地使高度忠诚的头部图像产生,并直接控制产生的图像的成形和各种语义特征。与现有的参数性模型不同,我们使用神经光亮场作为3D的新代谢,而不是传统的3D纹理网格,这使得HeelNeRF能够产生高度忠诚的图像。然而,原NeRF的计算成本高昂的成型过程阻碍了对准NeRF模型的构建。为了解决这一问题,我们采取了将2D神经成像与NERF的成形过程和设计新的损失术语相结合的战略。因此,HeadNERF的成型速度可以大大加快,而一个框架的成型时间从5米减少到25米。新设计的损失术语还可以提高人头的成型准确性,以及人体头部的精细层细节,例如牙齿、皱形、纹理、和经过训练的面面面纸质、我们可以展示的合成和面面面图像。

0
下载
关闭预览

相关内容

专知会员服务
109+阅读 · 2020年3月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
什么是anchor-based 和anchor free?
计算机视觉life
6+阅读 · 2020年1月4日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
4+阅读 · 2018年4月29日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
Top
微信扫码咨询专知VIP会员