Neural Radiance Fields (NeRF) has achieved impressive results in single object scene reconstruction and novel view synthesis, which have been demonstrated on many single modality and single object focused indoor scene datasets like DTU, BMVS, and NeRF Synthetic.However, the study of NeRF on large-scale outdoor scene reconstruction is still limited, as there is no unified outdoor scene dataset for large-scale NeRF evaluation due to expensive data acquisition and calibration costs. In this paper, we propose a large-scale outdoor multi-modal dataset, OMMO dataset, containing complex land objects and scenes with calibrated images, point clouds and prompt annotations. Meanwhile, a new benchmark for several outdoor NeRF-based tasks is established, such as novel view synthesis, surface reconstruction, and multi-modal NeRF. To create the dataset, we capture and collect a large number of real fly-view videos and select high-quality and high-resolution clips from them. Then we design a quality review module to refine images, remove low-quality frames and fail-to-calibrate scenes through a learning-based automatic evaluation plus manual review. Finally, a number of volunteers are employed to add the text descriptions for each scene and key-frame to meet the potential multi-modal requirements in the future. Compared with existing NeRF datasets, our dataset contains abundant real-world urban and natural scenes with various scales, camera trajectories, and lighting conditions. Experiments show that our dataset can benchmark most state-of-the-art NeRF methods on different tasks. We will release the dataset and model weights very soon.
翻译:单一物体现场重建和新视觉合成工作取得了令人印象深刻的成果, 在许多单一模式和单一目标集中的室内场景数据集, 如 DTU、 BMVS 和 NeRF 合成系统, 都展示了这些成果。 然而, NeRF 大规模户外场景重建研究仍然有限, 原因是数据获取和校准成本昂贵, 大型 NERF 评估没有统一的户外场景数据集。 在此文件中, 我们提议建立一个大型户外多式多式数据集、 OMMO 数据集, 包含复杂的陆地物体和场景, 配有校准图像、 点云和即时说明。 与此同时, 为一些以室外 NERF 为基础的任务制定了新的基准, 如新颖的视图合成、 地表重建以及多式 NERF 。 为了创建数据集, 我们收集并收集了大量真正的飞景视频视频, 并从中选择高品质和高分辨率的剪辑。 然后我们设计一个质量审查模块, 来改进图像, 去除低质量框架和不及不全调的场景, 通过学习式的自动评估以及手工的版本的版本, 我们的版本的版本的版本的版本的版本的版本的版本, 最后, 将满足了我们现在的版本的版本的版本的版本数据, 的版本的版本的版本的版本的版本的版本的版本的版本的版本, 我们的版本的版本的版本的版本的版本的版本的版本, 的版本的版本的版本的版本的版本, 的版本的版本的版本的版本的版本的版本的版本, 的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本的版本