Neural rendering techniques promise efficient photo-realistic image synthesis while at the same time providing rich control over scene parameters by learning the physical image formation process. While several supervised methods have been proposed for this task, acquiring a dataset of images with accurately aligned 3D models is very difficult. The main contribution of this work is to lift this restriction by training a neural rendering algorithm from unpaired data. More specifically, we propose an autoencoder for joint generation of realistic images from synthetic 3D models while simultaneously decomposing real images into their intrinsic shape and appearance properties. In contrast to a traditional graphics pipeline, our approach does not require to specify all scene properties, such as material parameters and lighting by hand. Instead, we learn photo-realistic deferred rendering from a small set of 3D models and a larger set of unaligned real images, both of which are easy to acquire in practice. Simultaneously, we obtain accurate intrinsic decompositions of real images while not requiring paired ground truth. Our experiments confirm that a joint treatment of rendering and decomposition is indeed beneficial and that our approach outperforms state-of-the-art image-to-image translation baselines both qualitatively and quantitatively.


翻译:神经成像技术可以带来高效的摄影现实图像合成,同时通过学习物理成像过程提供对现场参数的丰富控制。 虽然为这项任务提出了几种监督方法, 但获得一组精确对齐的3D模型的图像非常困难。 这项工作的主要贡献是通过从无对称数据中培训神经成像算法来取消这一限制。 更具体地说, 我们提议一个自动编码器, 用于从合成的 3D 模型中联合生成现实图像, 同时将真实图像分解成其内在形状和外观特性。 与传统的图形管道相比, 我们的方法并不要求指定所有场景属性, 如材料参数和手工照明。 相反, 我们从一组小的 3D 模型和 更多不匹配的真实图像中学习了照片现实化的延迟映像, 两者在实践中都很容易获得。 同时, 我们获得了真实图像的精确内在解剖面, 而不需要对称地面真象。 我们的实验证实, 联合处理成像和分解成真像确实有益, 我们的方法超越了质量和定量的状态图像转换基线。

0
下载
关闭预览

相关内容

自动编码器是一种人工神经网络,用于以无监督的方式学习有效的数据编码。自动编码器的目的是通过训练网络忽略信号“噪声”来学习一组数据的表示(编码),通常用于降维。与简化方面一起,学习了重构方面,在此,自动编码器尝试从简化编码中生成尽可能接近其原始输入的表示形式,从而得到其名称。基本模型存在几种变体,其目的是迫使学习的输入表示形式具有有用的属性。自动编码器可有效地解决许多应用问题,从面部识别到获取单词的语义。
【图与几何深度学习】Graph and geometric deep learning,49页ppt
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
101+阅读 · 2020年7月16日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
47+阅读 · 2020年1月23日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月20日
Arxiv
23+阅读 · 2021年3月4日
A survey on deep hashing for image retrieval
Arxiv
14+阅读 · 2020年6月10日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年5月20日
Arxiv
23+阅读 · 2021年3月4日
A survey on deep hashing for image retrieval
Arxiv
14+阅读 · 2020年6月10日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
7+阅读 · 2018年1月21日
Top
微信扫码咨询专知VIP会员