3D Gaussian Splatting (3DGS) and Neural Radiance Fields (NeRF) have advanced novel-view synthesis. Recent methods extend multi-view 2D segmentation to 3D, enabling instance/semantic segmentation for better scene understanding. A key challenge is the inconsistency of 2D instance labels across views, leading to poor 3D predictions. Existing methods use a two-stage approach in which some rely on contrastive learning with hyperparameter-sensitive clustering, while others preprocess labels for consistency. We propose a unified framework that merges these steps, reducing training time and improving performance by introducing a learnable feature embedding for segmentation in Gaussian primitives. This embedding is then efficiently decoded into instance labels through a novel "Embedding-to-Label" process, effectively integrating the optimization. While this unified framework offers substantial benefits, we observed artifacts at the object boundaries. To address the object boundary issues, we propose hard-mining samples along these boundaries. However, directly applying hard mining to the feature embeddings proved unstable. Therefore, we apply a linear layer to the rasterized feature embeddings before calculating the triplet loss, which stabilizes training and significantly improves performance. Our method outperforms baselines qualitatively and quantitatively on the ScanNet, Replica3D, and Messy-Rooms datasets.


翻译:三维高斯泼溅(3DGS)与神经辐射场(NeRF)技术推动了新视角合成的发展。近期方法将多视图二维分割扩展至三维,实现了实例/语义分割以提升场景理解能力。核心挑战在于跨视图二维实例标签的不一致性,这会导致三维预测质量下降。现有方法多采用两阶段流程:部分方法依赖对超参数敏感的聚类对比学习,另一些则对标签进行预处理以保证一致性。本文提出一个统一框架,通过为高斯基元引入可学习的特征嵌入进行分割,将上述步骤融合,从而减少训练时间并提升性能。该嵌入随后通过新颖的“嵌入到标签”解码过程高效转换为实例标签,实现了优化的有效集成。尽管该统一框架优势显著,我们观察到物体边界处存在伪影。为解决边界问题,我们提出沿边界挖掘困难样本的策略。然而,直接对特征嵌入应用困难样本挖掘会导致训练不稳定。因此,我们在计算三元组损失前对光栅化后的特征嵌入施加线性层处理,此举稳定了训练过程并显著提升了性能。在ScanNet、Replica3D和Messy-Rooms数据集上的定性与定量实验表明,本方法性能优于现有基线模型。

0
下载
关闭预览

相关内容

【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员