This paper addresses the challenge of quickly reconstructing free-viewpoint videos of dynamic humans from sparse multi-view videos. Some recent works represent the dynamic human as a canonical neural radiance field (NeRF) and a motion field, which are learned from videos through differentiable rendering. But the per-scene optimization generally requires hours. Other generalizable NeRF models leverage learned prior from datasets and reduce the optimization time by only finetuning on new scenes at the cost of visual fidelity. In this paper, we propose a novel method for learning neural volumetric videos of dynamic humans from sparse view videos in minutes with competitive visual quality. Specifically, we define a novel part-based voxelized human representation to better distribute the representational power of the network to different human parts. Furthermore, we propose a novel 2D motion parameterization scheme to increase the convergence rate of deformation field learning. Experiments demonstrate that our model can be learned 100 times faster than prior per-scene optimization methods while being competitive in the rendering quality. Training our model on a $512 \times 512$ video with 100 frames typically takes about 5 minutes on a single RTX 3090 GPU. The code will be released on our project page: https://zju3dv.github.io/instant_nvr


翻译:本文讨论快速重建由稀有多视图视频提供的动态人类自由视野视频的挑战。 近期的一些作品代表了动态人类, 是一个有活力人类的康纳神经光亮场和一个运动场, 通过不同的图像学习。 但是, perscene 优化通常需要几个小时。 其它一般的 NeRF 模型利用了先前从数据集中学习的优势, 并且只通过微调新场景, 以视觉忠诚为代价微调来减少优化时间。 在本文中, 我们提出了一个创新的方法, 用于学习动态人类的神经体积视频, 以具有竞争性视觉质量的分钟从稀有的视觉视频中学习。 具体地说, 我们定义了一个新的基于部分的合成人类代表法, 以更好地向不同的人类部分分配网络的演示力。 此外, 我们提出了一个新的 2D 运动参数化方案, 以提高变形场学习的趋同率。 实验表明, 我们的模型可以比先前的每台最美的方法快100倍于在质量上更具有竞争力。 我们的模型在512\time 视频上培训512$ 500美元, 视频, 以100 框架为100 常规: 通常需要 5分钟的 GPO_ x 。 将一个单一的GPOV.</s>

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Representing Volumetric Videos as Dynamic MLP Maps
Arxiv
0+阅读 · 2023年4月13日
Arxiv
13+阅读 · 2022年10月27日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
20+阅读 · 2021年2月28日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
15+阅读 · 2018年2月4日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
相关论文
Representing Volumetric Videos as Dynamic MLP Maps
Arxiv
0+阅读 · 2023年4月13日
Arxiv
13+阅读 · 2022年10月27日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
20+阅读 · 2021年2月28日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
15+阅读 · 2018年2月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员