Neural radiance field (NeRF) has become a popular 3D representation method for human avatar reconstruction due to its high-quality rendering capabilities, e.g., regarding novel views and poses. However, previous methods for editing the geometry and appearance of the avatar only allow for global editing through body shape parameters and 2D texture maps. In this paper, we propose a new approach named \textbf{U}nified \textbf{V}olumetric \textbf{A}vatar (\textbf{UVA}) that enables local and independent editing of both geometry and texture, while retaining the ability to render novel views and poses. UVA transforms each observation point to a canonical space using a skinning motion field and represents geometry and texture in separate neural fields. Each field is composed of a set of structured latent codes that are attached to anchor nodes on a deformable mesh in canonical space and diffused into the entire space via interpolation, allowing for local editing. To address spatial ambiguity in code interpolation, we use a local signed height indicator. We also replace the view-dependent radiance color with a pose-dependent shading factor to better represent surface illumination in different poses. Experiments on multiple human avatars demonstrate that our UVA achieves competitive results in novel view synthesis and novel pose rendering while enabling local and independent editing of geometry and appearance. The source code will be released.


翻译:神经辐射场(NeRF)已成为人体角色重建的流行三维表示方法,因其具有高质量的渲染能力,例如可进行新视角和新姿态的渲染。然而,以前的几何和外观编辑方法仅允许通过身体形状参数和2D纹理贴图对全局进行编辑。在本文中,我们提出了一种新方法命名为“统一体积化角色建模方法(UVA)”,它能够在保留渲染新视角和新姿态的能力的同时、实现几何和纹理的本地独立编辑。UVA使用皮肤运动场将每个观察点转换到规范空间,并将几何和纹理分别表示为神经场。每个场由一组结构化的潜在编码组成,附加到规范化空间中变形网格上的锚点上,并通过插值在整个空间中扩散以实现本地编辑。为了解决编码插值中的空间模糊问题,我们采用了本地有符号高度指示器。我们还将视角依赖的辐射色彩替换为依赖姿态的着色因子,以更好地表示不同姿态下的表面照明。在多个人体角色上的实验表明,我们的UVA在新视角合成和新姿态渲染方面取得了竞争性的结果,同时实现了几何和外观的本地独立编辑。源代码将会公开发布。

0
下载
关闭预览

相关内容

专知会员服务
15+阅读 · 2021年5月13日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【泡泡一分钟】学习紧密的几何特征(ICCV2017-17)
泡泡机器人SLAM
20+阅读 · 2018年5月8日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年6月1日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年5月13日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员