坚持原创,点击上方蓝字关注我!点击置顶可第一时间接收信息
有什么用?
室内场景的稠密三维重建目前是一个非常热的研究领域,其目的是使用消费级相机(本文特指深度相机)对室内场景进行扫描,自动生成一个精确完整的三维模型,这里所说的室内可以是一个区域,一个房间,甚至是一整栋房屋。此外,该领域注重(一般是GPU上)实时重建,也就是一边扫描就可以一边查看当前重建的结果。如下所示。
主要的应用包括室内的增强现实游戏、机器人室内导航、AR家具展示等。
什么原理?
在介绍原理前,先简单了解一下历史发展。
在消费级深度相机出现之前,想要采用普通相机实现实时稠密三维重建比较困难。微软2010年发布了Kinect之后,基于深度相机的稠密三维重建掀起了研究热潮。早期比较有代表性的工作是2011年微软的Newcombe(单目稠密重建算法DTAM 的作者)、Davison等大牛发表在SIGGRAPH上的KinectFusion算法,算是该领域的开山之作。KinectFusion算法首次实现了基于廉价消费类相机的实时刚体重建,在当时是非常有影响力的工作,它极大的推动了实时稠密三维重建的商业化进程。下图所示是几款消费级深度相机。
KinectFusion之后,陆续出现了Kintinuous,ElasticFusion,InfiniTAM,BundleFusion等非常优秀的工作。其中2017年斯坦福大学提出的BundleFusion算法,可以说是目前基于RGB-D相机进行稠密三维重建效果最好的方法了。本文主要以该算法为基础进行介绍。值得一提的是,目前室内三维重建和语意理解结合的研究越来越多,这方面暂不做介绍。
BundleFusion是目前效果最好的开源算法框架,其概览图如下所示。
我们先来看一下输入输出是什么。
输入:RGB-D相机采集的对齐好的color+depth的数据流,这里使用的是structure sensor+iPad输出的30Hz,分辨率为640x480的序列图像。
输出:重建好的三维场景。
输入的color+depth的数据流首先需要做帧与帧之间的对应关系匹配,然后做全局位姿优化,将整体的漂移校正过来(上图下方所示),整个重建过程中模型是在不断动态更新的。
上面只是一个概括的介绍,我们深入看一下。算法具体流程图如下:
虽然看起来很复杂,其实思想还是非常直观的。下面分别介绍一下。
在匹配方面,这里使用的是一种sparse-then-dense的并行全局优化方法。也就是说,先使用稀疏的SIFT特征点来进行比较粗糙的配准,因为稀疏特征点本身就可以用来做loop closure检测和relocalization。然后使用稠密的几何和光度连续性进行更加细致的配准。下图展示了sparse+dense这种方式和单纯sparse的对比结果。
在位姿优化方面。这里使用了一种分层的 local-to-global 的优化方法,如下图所示。总共分为两层,在最低的第一层,每连续10帧组成一个chunk,第一帧作为关键帧,然后对这个chunk内所有帧做一个局部位姿优化。在第二层,只使用所有的chunk的关键帧进行互相关联然后进行全局优化。为什么要分层这么麻烦呢?或者说这样分层有什么好处呢?因为可以剥离出关键帧,减少存储和待处理的数据。并且这种分层优化方法减少了每次优化时的未知量,保证该方法可扩展到大场景而漂移很小。
在稠密场景重建方面。一个关键的点在于模型的对称型更新:若要增加更新的一帧估计,需先去掉旧的一帧,然后在新的位姿处重新整合。这样理论上来说,随着帧越来越多,模型会越来越精确。
作为纯视觉的算法,其鲁棒性非常重要,因此该算法在特征匹配对筛选方面还是做了不少工作。特征点对需要经历如下三种考验才能通关:
第一种是直接对关键点本身分布的一致性和稳定性进行考验。如下图所示,绿色部分才是符合一致性的对应关系。
第二道关卡是对特征匹配对跨越的表面面积进行考验,去掉特别小的,因为跨越面积较小的的话很容易产生歧义。第三道关卡是进行稠密的双边几何和光度验证,去掉重投影误差较大的匹配对。如下图所示两个同样的显示屏导致了左右的错误匹配,是通不过这道关卡的。
此外在chunk内外如何进行局部和全局的处理,以及具体的位姿优化能量函数方面的细节就不介绍了,可以参考文末给出的论文和代码。
效果怎么样?
先来总结下算法的优点:
使用持续的local to global分层优化,去除了时域跟踪的依赖。
不需要任何显示的loop closure检测。因为每一帧都和历史帧相关,所以其实包含了持续的隐式的loop closure。
支持在GPU上实时鲁棒跟踪,可以在跟踪失败时移动到重建成功的地方进行relocalization,匹配上后继续跟踪。
实验表明该方法确实是目前该领域效果最好的方法,口说无凭,看图说话。下图是和其他方法的对比,方框内是细节的对比,重建优势还是很明显的。
具体看一下重建细节如下图所示,还是挺精细的。
另外在loop closure方面该算法做的也不错,在纹理比较丰富的情况下误差基本都能校正回来。如下图所示。
关于运行速度,目前可以做到在两块GPU上实时。在演示视频中,structure sensor是卡在iPad上,将采集到的数据通过无线网络传给台式机(带GPU),匹配、优化和重建工作都是在台式机上运行,重建的结果再通过无线网络传到iPad上显示。下图是使用两块GPU(GTX Titan X + GTX Titan Black)的运行时间分配。
下图是使用一块GPU的运行时间分配。
由于成像传感器存在噪音,稀疏关键点匹配可能产生小的局部误匹配。这些误匹配可能会在全局优化中传播,导致误差累积。
上述效果图片都是在作者提供的公开数据集上的效果,该数据集采集的场景纹理比较丰富,光照也比较适中。而实际重建时效果和所使用深度相机的性能、待重建场景的纹理丰富程度关系很大。对于办公室这种简洁风格的场景效果会下降很多,还有很多可改进的地方。
目前算法需要两块GPU才能实时运行,算法的优化和加速非常有意义。
有什么参考资料?
项目网址:
http://graphics.stanford.edu/projects/bundlefusion/
code:
https://github.com/niessner/BundleFusion
放一个彩蛋。最近在中国科技大学举办的GAMES(计算机图形学与混合现实研讨会)2018大会上,MSRA的童欣研究员系统梳理了室内三维重建和理解方面的研究现状,感兴趣的可以点击下面视频学习。
彩蛋2:温馨提示:本文中提到的论文我都给你准备好了,在本公众号菜单栏回复“室内重建”即可获取。
彩蛋3:另外,计算机视觉life公众号关联的知识星球上线了,完全免费,微信一键登录!星球内所有成员都可以发布问题、解答问题,支持上传文件、点赞、留言、赞赏、收藏、匿名等功能,互动交流更方便!所有内容都可以沉淀,能分类可检索,详情见《欢迎加入我的免费知识星球!》,长按下图识别二维码加入吧!
注:转载请联系simiter@126.com,注明来源,侵权必究。
相关阅读