We propose a method for constructing generative models of 3D objects from a single 3D mesh. Our method produces a 3D morphable model that represents shape and albedo in terms of Gaussian processes. We define the shape deformations in physical (3D) space and the albedo deformations as a combination of physical-space and color-space deformations. Whereas previous approaches have typically built 3D morphable models from multiple high-quality 3D scans through principal component analysis, we build 3D morphable models from a single scan or template. As we demonstrate in the face domain, these models can be used to infer 3D reconstructions from 2D data (inverse graphics) or 3D data (registration). Specifically, we show that our approach can be used to perform face recognition using only a single 3D scan (one scan total, not one per person), and further demonstrate how multiple scans can be incorporated to improve performance without requiring dense correspondence. Our approach enables the synthesis of 3D morphable models for 3D object categories where dense correspondence between multiple scans is unavailable. We demonstrate this by constructing additional 3D morphable models for fish and birds and use them to perform simple inverse rendering tasks. We share the code used to generate these models and to perform our inverse rendering and registration experiments.
翻译:我们建议了从单一 3D 网格中构建 3D 对象的基因模型的方法。 我们的方法产生了一个3D 可变模型, 代表高斯进程中的形状和反照。 我们定义了物理( 3D) 空间中的形状变形和反照率变形, 将物理( 3D) 空间和色- 空间变形相结合。 虽然以往的方法通常都是从多个高质量的 3D 扫描中建立 3D 变形模型, 通过主要部件分析, 我们从一个扫描或模板中建立 3D 可变型模型。 正如我们在面部显示的那样, 这些模型可以用来从 2D 数据( 反图) 或 3D 数据( 登记) 中推导 3D 重建 3D 3D 。 我们具体地表明, 我们的方法可以只用一个 3D 3D 扫描( 总共一次扫描, 而不是 每人 ) 来进行面对面的扫描, 来改进性能让3D 3D 对象类别 合成模型 。 我们用这些模型和 进行简单的 进行模拟 。 我们用这些模型来进行 进行 和 将这些模型 进行 和 进行 进行 和 进行 进行 的 进行 和 进行 的 进行 进行 的 和 和 模拟 进行 进行 的 。