We present the first method capable of photorealistically reconstructing deformable scenes using photos/videos captured casually from mobile phones. Our approach augments neural radiance fields (NeRF) by optimizing an additional continuous volumetric deformation field that warps each observed point into a canonical 5D NeRF. We observe that these NeRF-like deformation fields are prone to local minima, and propose a coarse-to-fine optimization method for coordinate-based models that allows for more robust optimization. By adapting principles from geometry processing and physical simulation to NeRF-like models, we propose an elastic regularization of the deformation field that further improves robustness. We show that our method can turn casually captured selfie photos/videos into deformable NeRF models that allow for photorealistic renderings of the subject from arbitrary viewpoints, which we dub "nerfies." We evaluate our method by collecting time-synchronized data using a rig with two mobile phones, yielding train/validation images of the same pose at different viewpoints. We show that our method faithfully reconstructs non-rigidly deforming scenes and reproduces unseen views with high fidelity.


翻译:我们展示了第一个能够利用从移动电话中随意捕捉到的照片/视频对变形场进行光化重建的方法。我们的方法通过优化一个额外的连续体积变异场来增强神经光场(NERF ), 使每个观测到的点都变成一个5D NERF。我们观察到,这些类似 NERF 的变形场很容易被本地迷你, 并提出了一种协调模型的粗到软优化方法, 以便实现更强大的优化。 我们通过将几何处理和物理模拟等像 NERF 一样的模型中的原则修改为变形场, 我们建议对变形场进行弹性调整, 以进一步提高强性。 我们显示, 我们的方法可以将随机的自拍自拍照片/ 影像转化为可变形的 NERF 模型, 从任意的角度来对主题进行摄影真实化的图像转换, 也就是“ 神经元” 。 我们用两部移动电话收集时间同步化数据来评估我们的方法。 我们用不同角度的火车/校准图像, 显示我们的方法忠实地重建了不精确的图像, 。

1
下载
关闭预览

相关内容

专知会员服务
72+阅读 · 2021年5月28日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICML2019机器学习顶会接受论文列表!
专知
10+阅读 · 2019年5月12日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
10+阅读 · 2018年12月6日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
相关资讯
CVPR 2019 | 34篇 CVPR 2019 论文实现代码
AI科技评论
21+阅读 · 2019年6月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICML2019机器学习顶会接受论文列表!
专知
10+阅读 · 2019年5月12日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员