Semantic scene completion is the task of jointly estimating 3D geometry and semantics of objects and surfaces within a given extent. This is a particularly challenging task on real-world data that is sparse and occluded. We propose a scene segmentation network based on local Deep Implicit Functions as a novel learning-based method for scene completion. Unlike previous work on scene completion, our method produces a continuous scene representation that is not based on voxelization. We encode raw point clouds into a latent space locally and at multiple spatial resolutions. A global scene completion function is subsequently assembled from the localized function patches. We show that this continuous representation is suitable to encode geometric and semantic properties of extensive outdoor scenes without the need for spatial discretization (thus avoiding the trade-off between level of scene detail and the scene extent that can be covered). We train and evaluate our method on semantically annotated LiDAR scans from the Semantic KITTI dataset. Our experiments verify that our method generates a powerful representation that can be decoded into a dense 3D description of a given scene. The performance of our method surpasses the state of the art on the Semantic KITTI Scene Completion Benchmark in terms of geometric completion intersection-over-union (IoU).


翻译:语义场景的完成是共同估计特定范围内天体和表面的3D几何和语义的任务。 这是一项特别具有挑战性的任务, 实际世界数据是稀少的和隐蔽的。 我们提议以本地深隐隐性函数为基础建立一个场景分解网络, 作为一种全新的学习方法, 以完成场景。 与以前在现场完成时的工作不同, 我们的方法产生连续的场景表征, 而不是基于 voxeliz化。 我们将原始点云编码成一个隐蔽的空间, 并用多种空间分辨率。 随后从局部功能补丁中集合出一个全球场景完成功能。 我们显示, 这种连续的表征适合于将大户外场景的几何和语义特性编码, 而不需要空间分解( 从而避免在现场详细程度和可以覆盖的场景范围之间进行权衡 ) 。 我们从语义上讲解的LIDAR扫描方法, 而不是基于Smanti KITTI 数据集进行。 我们的实验证实我们的方法产生强大的表力代表, 能够解成一个密度3D描述给定场景点的深度的三维度描述。 我们的方法的表现超越了ScreaximI在SeximimimimI的完成状态上的进度跨点条件的进度条件条件条件条件超越了SBreabreabilatementalmentalmentmentmentmentalmentalmentaltermex条件。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
【图与几何深度学习】Graph and geometric deep learning,49页ppt
迁移学习简明教程,11页ppt
专知会员服务
108+阅读 · 2020年8月4日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
智慧交通的高精度定位技术(PPT)
智能交通技术
29+阅读 · 2019年5月1日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
【泡泡一分钟】PoseMap: 终生、多环境的3D激光雷达定位
泡泡机器人SLAM
6+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
Learning Dynamic Routing for Semantic Segmentation
Arxiv
8+阅读 · 2020年3月23日
SwapText: Image Based Texts Transfer in Scenes
Arxiv
4+阅读 · 2020年3月18日
Two Stream 3D Semantic Scene Completion
Arxiv
4+阅读 · 2018年7月16日
VIP会员
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
智慧交通的高精度定位技术(PPT)
智能交通技术
29+阅读 · 2019年5月1日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
【泡泡一分钟】PoseMap: 终生、多环境的3D激光雷达定位
泡泡机器人SLAM
6+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员