今日聚焦
自动化所吴毅红研究员率领模式识别国家重点实验室机器人视觉团队,利用几十年的技术积累和知识产权,推出了面向智能移动终端的视觉定位解决方案(CASIA-VSLAM)。
随着第三波人工智能浪潮的到来,从AI手机到智能家居,各种人工智能设备越来越多的出现在我们的生活中。与此同时,人工智能的发展也已经上升为国家意志。在《中国制造2025》战略规划中,我国明确指出“开发智能产品和自主可控的智能装置并实现产业化”,“中国制造”要向“中国智造”转型。《新一代人工智能发展规划》中更是明确了“人工智能成为经济发展的新引擎”。
正是在国家政策的大力扶持和万亿市场的催化下,中国人工智能产业“正处在快速扩散阶段”,机器人、增强/虚拟现实等人工智能产业也在持续升温。而视觉系统,是被公认的AI核心入口。
在此浪潮下,吴毅红研究员率领模式识别国家重点实验室机器人视觉团队,利用几十年的技术积累和知识产权,推出了面向智能移动终端的视觉定位解决方案(CASIA-VSLAM)。
负责团队视觉定位技术研发与应用的李和平博士详细介绍了这套解决方案的具体内容:
VSLAM(视觉同步定位与构图)是智能机器人、AR/VR眼镜头盔、智能手机等移动终端相关应用中的核心技术。CASIA-VSLAM能够为智能服务机器人提供快速、鲁棒的三维地图构建、定位与导航服务,为AR眼镜、VR头盔、智能手机等移动终端用户提供更自然的三维场景交互服务。这套方案是一个综合的视觉定位解决方案,分别针对广告娱乐、在线教育、工业物流等不同场景中的具体应用需求,提出了针对性地视觉定位技术方案。
正如机器人视觉团队负责人吴毅红研究员介绍的一样:
CASIA-VSLAM视觉定位方案是机器人视觉团队在三维视觉定位方面长期技术积累和应用实践的结晶。机器人视觉团队从一开始探索视觉定位理论方法的时候,就非常重视工程应用。早在2008年就已经与诺基亚在视觉定位方面开展应用合作,此后,还与华为、三星、相关机器人公司等进行了大量持续的应用合作。在与这些企业合作的十年间,机器人视觉团队积累了大量宝贵的工程实践经验,视觉定位系统的性能越来越鲁棒和实用,已经可以产品化。
人有弱视的时候,机器视觉在目前的技术下也有弱视的时候。机器人视觉组李和平博士首次提出了弱视觉场景的概念。
弱视觉场景是指存在弱纹理、强光、弱光、长通道、大片空旷区域等有效视觉信息量非常少的场景。这些场景是计算机视觉领域长期以来存在的顽固性的挑战难题。CASIA-VSLAM通过融合单目/双目、IMU等多种传感器以及点、线、面等多种基元,针对性地解决这些难题。
CASIA-VSLAM充分考虑了不同场景中的实际应用需求,拥有全面的视觉SLAM技术。
首先,能够针对动态场景,采用与已有SLAM中2D光流不同的方法,充分发挥3D信息的独特性,以3D来辅助光流跟踪,使得光流特征跟踪更精确;
同时,对模型质量进行更有效地控制,得到更高质量的地图点,进行实时跟踪定位与在线三维重建,帮你解决动态目标AR/VR/MR应用中的定位难题。
动态人头实时定位与在线三维建模
动态人头实时定位与增强现实
动态水瓶实时定位与增强现实
此外,通常的SLAM在弱视觉场景都会失败,而CASIA-VSLAM以视觉为主,融合多种辅助传感器,结合多种几何基元,能够针对弱视觉场景,进行实时、精确、流畅的视觉定位与地图构建,让你的智能移动终端,在弱视觉区域中,即使只能看到两个简单的圆,也能鲁棒工作。
机器人在弱视觉场景中的点线融合定位
机器人在长通道场景中的鲁棒定位与构图
机器人在强光线/弱纹理场景中的鲁棒定位与构图
手机在弱纹理区域中的鲁棒定位与构图
手机在弱纹理配电箱中的鲁棒定位与增强现实
弱视觉环境下的辅助驾驶视觉里程计
仅依靠简单几何信息(两个圆)的视觉定位
最后,能够针对城市大场景,在千万级的点云上,只采用CPU,可达到毫秒级的定位,让你在大街上丢不了,还能带你去想去的地方。
城市千万级点云毫秒级定位
十万级点云实时定位
安防视频快速定位跟踪与信息增强
在三维视觉定位方面,机器人视觉团队已经硕果累累。2018年,CASIA-VSLAM将融合多种传感器,陆续在教育、物流、娱乐等应用场景测试落地,团队自主研发的双目视觉定位硬件模组和AGV视觉定位解决方案也将很快问世。
本文作者:李和平 博士
对以上内容有任何疑问,欢迎小窗作者本人喔~
更多精彩内容,欢迎关注
中科院自动化所官方网站:
http://www.ia.ac.cn
欢迎后台留言、推荐您感兴趣的话题、内容或资讯,小编恭候您的意见和建议!如需转载或投稿,请后台私信。
作者:李和平
编辑:鲁宁、欧梨成
中科院自动化研究所
微信:casia1956
欢迎搭乘自动化所AI旗舰号!