平板摄像头+算力搞定3D空间实时重建和理解,清华和禾多科技新成果入选CVPR 2022 Oral

2022 年 8 月 24 日 THU数据派


  
  
    
来源:量子位

  本文为约2020字,建议阅读4分钟

本文介绍了 清华大学联合禾多科技提出的增量式稀疏卷积网络。


仅仅需要一个平板电脑,就能实现3D空间的实时重建和理解了!



看,只要拿着平板电脑走一走,房间内的物体就能被实时重建、分割和识别出来,整个过程行云流水。


要知道,3D重建和语义理解,是机器人、自动驾驶、AR/VR等领域的关键共性技术,长期以来面临算法复杂度高,难以实时处理的挑战。


现在,只用一个小小的平板就搞定了。



这就是清华大学联合禾多科技提出的增量式稀疏卷积网络(INcremental Sparse Convolution,INS-Conv)。


在不损失性能的同时,极大地降低了算法的复杂度。


目前,该论文已被CVPR 2022(Oral)收录。



那么具体是怎么做的呢?



增量式稀疏卷积网络


本论文的核心之处,是提出了一种量式稀疏卷积神经网络(INcremental Sparse Convolution,INS-Conv)。


算法复杂、推理速度慢、算力要求高是长期以来,3D语义理解算法在应用场景中面临的核心挑战。


比如自动驾驶场景,就要求三维感知系统能够对快速变化的路况做出实时判断,而且要精确识别车辆、行人、路标等。


尽管过去很多密集3D卷积网络在精度上取得了不错成绩,但是对芯片算力的要求也随之增高,网络推理速度上也不够快,往往是几秒钟才能处理一帧信息,难以满足如自动驾驶等应用的需求。



所以,研究人员提出了一种增量稀疏卷积神经网络,专门针对连续帧的残差进行增量推理



简单来说,就是一段递增的3D几何序列可以表示为:



那么,在 t 时间点下的表示为:



其中,dx表示时间t和t-1之间的残差,t-1时刻的数据是之前已经缓存的,因此只需计算f(dx)。


由于dx在这里是非常稀疏的,因此计算量会大幅减少。


也就是说,在这个神经网络中,为稀疏卷积操作定义了全新的残差传播规则,用INS-Conv层替换标准稀疏卷积网络层,就能以最小的精度损失实现高效的增量推理。


在ScanNetv2验证集上,2个不同时间点下,INS-Conv语义分割和实例分割的效果如下。



和其他方法对比,在ScanNetv2数据集中,语义分割任务下INS-Conv的均交并比(mIoU)结果优于其他两种实时方法。


实例分割任务下,INS-Conv达到了现有离线算法的性能,与现有的在线算法相比,性能提升可达10%。


现在越来越多的车上除了摄像头之外开始装配有激光雷达,通过论文中描述的方法能够更快更好地进行三维重建、场景理解等三维感知任务,从而更好地为自动驾驶系统的全面安全保驾护航。



团队介绍


论文的第一单位为清华大学成像与智能技术实验室,通讯作者为清华大学电子工程系副教授方璐。


成像与智能技术实验室致力于计算成像和视觉智能领域的跨学科研究,主要包括光场智能成像,光场重建、分析与理解,新一代光电智能计算架构与芯片等。


发表Nature Photonics(封面文章), Light: Science & Applications(封面文章), Nature Methods, Nature Machine Intelligence,IEEE TPAMI, CVPR等文章。


这次论文合作者中,还有禾多科技创始人、CEO倪凯博士。


倪凯本科毕业于清华大学,后赴佐治亚理工学院攻读博士学位,在IEEE/IROS/ICRA等计算机顶会上发表学术论文十余篇,曾任职于微软和百度。



2017年,倪凯宣布创立自动驾驶领域公司禾多科技。


据了解,禾多科技正在打造由本地数据驱动的自动驾驶量产解决方案。两大核心方案为HoloPilot行车自动驾驶系统和HoloParking智能泊车系统。今年3月,禾多科技宣布完成数亿元战略融资轮,由广汽资本独家投资。按照计划,搭载禾多科技自动驾驶系统的多款广汽车型将于2022年开始陆续上市。


学术研究方面,禾多科技与清华大学、武汉大学、加州伯克利大学、佐治亚理工学院都达成了学术合作。


传送门

INS-Conv代码已在GitHub开源,欢迎下载使用(包括实验室其他开源项目):

https://thu-luvision.github.io/Large_scale_reconstruction/RGBD/insconv.html

@inproceedings{liu2022ins,  title={INS-Conv: Incremental Sparse Convolution for Online 3D Segmentation},  author={Liu, Leyao and Zheng, Tian and Lin, Yun-Jou and Ni, Kai and Fang, Lu},  booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},  pages={18975--18984},  year={2022}}   br


参考链接:
https://www.youtube.com/watch?v=V4gVuNyKaPQ

——END——

登录查看更多
0

相关内容

CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
17+阅读 · 2022年4月18日
CVPR2022 | Sparse Transformer刷新点云目标检测的SOTA
专知会员服务
24+阅读 · 2022年3月9日
专知会员服务
25+阅读 · 2021年3月7日
近期必读的5篇AI顶会CVPR 2020 GNN (图神经网络) 相关论文
专知会员服务
78+阅读 · 2020年3月3日
在CVPR上,OPPO的一系列「业界首次」
机器之心
0+阅读 · 2022年7月6日
【泡泡图灵智库】协同视觉-惯性SLAM
泡泡机器人SLAM
29+阅读 · 2019年9月6日
ICCV2019 | 高精度,高效率点云三维重建 PointMVSNet
计算机视觉life
23+阅读 · 2019年9月5日
【泡泡图灵智库】LOAM:实时激光里程计与建图
泡泡机器人SLAM
18+阅读 · 2018年12月15日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2021年6月21日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员