Semantic scene reconstruction from point cloud is an essential and challenging task for 3D scene understanding. This task requires not only to recognize each instance in the scene, but also to recover their geometries based on the partial observed point cloud. Existing methods usually attempt to directly predict occupancy values of the complete object based on incomplete point cloud proposals from a detection-based backbone. However, this framework always fails to reconstruct high fidelity mesh due to the obstruction of various detected false positive object proposals and the ambiguity of incomplete point observations for learning occupancy values of complete objects. To circumvent the hurdle, we propose a Disentangled Instance Mesh Reconstruction (DIMR) framework for effective point scene understanding. A segmentation-based backbone is applied to reduce false positive object proposals, which further benefits our exploration on the relationship between recognition and reconstruction. Based on the accurate proposals, we leverage a mesh-aware latent code space to disentangle the processes of shape completion and mesh generation, relieving the ambiguity caused by the incomplete point observations. Furthermore, with access to the CAD model pool at test time, our model can also be used to improve the reconstruction quality by performing mesh retrieval without extra training. We thoroughly evaluate the reconstructed mesh quality with multiple metrics, and demonstrate the superiority of our method on the challenging ScanNet dataset. Code is available at \url{https://github.com/ashawkey/dimr}.
翻译:从点云中重建语义场景对于3D 场景理解来说是一项至关重要且具有挑战性的任务。 此项任务不仅需要识别场景中的每个实例,而且需要根据部分观测点云来恢复其地貌。 现有方法通常试图直接预测基于基于基于检测的骨干不完全点云建议的完整天体的占用值。 然而,由于各种检测到的假正向对象建议受到阻碍,以及学习完整对象占用值的点观测不全,从而无法重建高真实性网格网格。 为绕过障碍,我们提议了一个用于有效点场景理解的分解事件Mesh重建框架。 应用了基于分割的骨架来减少错误的正向对象提议,这进一步有利于我们探索确认和重建之间的正向关系。 根据准确的建议,我们利用隐蔽的隐蔽代码空间去形状完成和中位生成的过程,从而减轻了不完整的点观测结果造成的模糊性。 此外,在测试时进入 CAD 模型库时,我们也可以使用模型来改进重建质量, 进行具有挑战性的网络/ 标准, 校准的校正 校正 。 我们 正在 校 校 校 校 正在 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校