Recent advancements in 3D generative modeling have significantly improved the generation realism, yet the field is still hampered by existing representations, which struggle to capture assets with complex topologies and detailed appearance. This paper present an approach for learning a structured latent representation from native 3D data to address this challenge. At its core is a new sparse voxel structure called O-Voxel, an omni-voxel representation that encodes both geometry and appearance. O-Voxel can robustly model arbitrary topology, including open, non-manifold, and fully-enclosed surfaces, while capturing comprehensive surface attributes beyond texture color, such as physically-based rendering parameters. Based on O-Voxel, we design a Sparse Compression VAE which provides a high spatial compression rate and a compact latent space. We train large-scale flow-matching models comprising 4B parameters for 3D generation using diverse public 3D asset datasets. Despite their scale, inference remains highly efficient. Meanwhile, the geometry and material quality of our generated assets far exceed those of existing models. We believe our approach offers a significant advancement in 3D generative modeling.


翻译:三维生成建模的最新进展显著提升了生成的真实感,但该领域仍受限于现有表示方法,这些方法难以捕捉具有复杂拓扑结构和精细外观的资产。本文提出一种从原生三维数据中学习结构化潜在表示的方法以应对这一挑战。其核心是一种称为O-Voxel的新型稀疏体素结构,这是一种编码几何与外观的全方位体素表示。O-Voxel能够稳健地建模任意拓扑结构,包括开放、非流形及完全封闭的表面,同时捕获超越纹理颜色的完整表面属性,例如基于物理的渲染参数。基于O-Voxel,我们设计了一种稀疏压缩变分自编码器,其具备高空间压缩率和紧凑的潜在空间。我们利用多样化的公共三维资产数据集,训练了包含40亿参数的大规模流匹配模型用于三维生成。尽管模型规模庞大,推理过程仍保持高效。同时,我们生成资产的几何与材质质量远超现有模型。我们相信该方法为三维生成建模提供了重要进展。

0
下载
关闭预览

相关内容

【CVPR2024】ViewDiff: 3D一致的图像生成与文本到图像模型
专知会员服务
30+阅读 · 2024年3月10日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员