Manual modeling of material parameters and 3D geometry is a time consuming yet essential task in the gaming and film industries. While recent advances in 3D reconstruction have enabled accurate approximations of scene geometry and appearance, these methods often fall short in relighting scenarios due to the lack of precise, spatially varying material parameters. At the same time, diffusion models operating on 2D images have shown strong performance in predicting physically based rendering (PBR) properties such as albedo, roughness, and metallicity. However, transferring these 2D material maps onto reconstructed 3D geometry remains a significant challenge. We propose a framework for fusing 2D material data into 3D geometry using a combination of novel learning-based and projection-based approaches. We begin by reconstructing scene geometry via Gaussian Splatting. From the input images, a diffusion model generates 2D maps for albedo, roughness, and metallic parameters. Any existing diffusion model that can convert images or videos to PBR materials can be applied. The predictions are further integrated into the 3D representation either by optimizing an image-based loss or by directly projecting the material parameters onto the Gaussians using Gaussian ray tracing. To enhance fine-scale accuracy and multi-view consistency, we further introduce a light-weight neural refinement step (Neural Merger), which takes ray-traced material features as input and produces detailed adjustments. Our results demonstrate that the proposed methods outperform existing techniques in both quantitative metrics and perceived visual realism. This enables more accurate, relightable, and photorealistic renderings from reconstructed scenes, significantly improving the realism and efficiency of asset creation workflows in content production pipelines.


翻译:在游戏和电影行业中,手动建模材质参数与三维几何是一项耗时但至关重要的任务。尽管三维重建技术的最新进展已能实现对场景几何与外观的精确近似,但这些方法常因缺乏精确的空间变化材质参数而在重光照场景中表现不足。与此同时,基于二维图像操作的扩散模型在预测基于物理的渲染(PBR)属性(如反照率、粗糙度与金属度)方面展现出强大性能。然而,将这些二维材质贴图迁移至重建的三维几何上仍面临重大挑战。我们提出一个框架,通过结合新颖的基于学习与基于投影的方法,将二维材质数据融合到三维几何中。我们首先通过高斯泼溅重建场景几何。扩散模型从输入图像中生成反照率、粗糙度与金属度参数的二维贴图。任何能够将图像或视频转换为PBR材质的现有扩散模型均可应用。预测结果进一步通过优化基于图像的损失函数,或利用高斯光线追踪将材质参数直接投影到高斯体上,从而整合到三维表示中。为提升细尺度精度与多视角一致性,我们进一步引入一个轻量级神经优化步骤(Neural Merger),该步骤以光线追踪的材质特征为输入,生成细节调整。我们的结果表明,所提方法在定量指标与感知视觉真实感上均优于现有技术。这能够从重建场景中生成更精确、可重光照且更具照片真实感的渲染结果,显著提升了内容生产流程中资产创建工作流的真实感与效率。

0
下载
关闭预览

相关内容

Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员