小觅智能:有了这双“眼睛”,机器人和无人车在任何环境中都不会迷路 | 初创公司

2018 年 9 月 12 日 动点科技

动点科技 | ID:technode


如何给机器人打造一双在任何环境下自主定位导航的“眼睛”?


基础创新是一个漫长的赛道,不过对于硅谷连续创业家庞琳勇博士(Leo)来说,他早已习惯。“小觅智能是我的第三家创业公司,我的第二家公司从成立到最后被收购做了10年。这没什么奇怪的,赚快钱的公司很难有壁垒的。”庞琳勇以很自然的语气回答。


毕业于美国斯坦福大学,拥有机械工程博士和计算机科学硕士(机器人视觉专业)的双学位,并曾在中国科技大学师从光学测量泰斗伍小平院士,庞琳勇在立体视觉领域深耕多年并有多项研究成果。AI 时代的到来,让他在自己擅长的领域看到了一个前所未有的刚需市场。


“每一次技术浪潮都会产生新的基础建设需求。PC 时代,英特尔和微软垄断了 CPU 和操作系统;移动互联网时代,ARM 揽括芯片,iOS 和安卓承包了操作系统;AI 时代的来临,你会发现无论是机器人还是自动驾驶汽车,甚至 VR 和 AR 的应用,其共性特点是动起来了。”在琳勇看来,AI 时代高度强调“动”,而事物要运动,必须要有一双认路和看得出距离的“人眼”——这便是他的专长。


2014 年,旨在让机器人动起来的小觅智能(MYNT AI)在硅谷成立了。其成员主要来自百度、三星、诺基亚、摩托罗拉等。


小觅智能专注立体视觉技术整体解决方案,是行业领先的视觉定位导航VPS(Visual Positioning System)核心技术提供商。VPS 核心技术包括自主研发的双目结构光深度惯导相机、视觉里程计VIO(Visual-Inertial Odometry)技术、 VSLAM(Visual Simultaneous Localization And Mapping) 技术、自动驾驶、3D 识别/测量技术等。据庞琳勇介绍,小觅智能提供三个维度的产品,一是基础层:各种各样的双目深度摄像头硬件;二是自动导航的底座,也就是双目摄像头加上 SLAM 的算法,企业可以在上面开发自己的机器人;第三层是针对不同的行业做的定位导航定制方案,如服务机器人,扫地机机器人、汽车辅助驾驶 ADAS 等。


简单来说,小觅智能想给机器人和无人车(机)一双灵敏的眼睛,帮助其自主行走。


说起机器视觉,目前最热门、最主要的两大类应用无非是识别和导航定位。小觅智能则是后者。和用于手机等的二维传感器不同,深度传感器能够把物体的距离测量出来。目前市面上的深度相机主要分为三种:时间飞行法 TOF(Time Of Flight)、双目、结构光。这三种方法皆有优势和局限性。


>结构光:属于主动光类,算法容易在芯片上实现,较为成熟,图像分辨率比较高,但测量距离较短(1~2米),容易受光照影响,不适用于室外环境;


>TOF:属于主动光类,算法容易在芯片上实现,抗干扰性能较机构光要好, 深度精度高,不过其图像分辨率较低(测的点少), 测量距离在5米左右,成本高;


>双目:属于被动光类,室内外都工作,研究历史较久,成本较低, 算法精度高,鲁棒性强,测量距离可以达到100米,但计算量大,算法复杂。 因为非常依赖自然图像特征匹配,所以不适用于昏暗环境或者过度曝光环境,另外如果被测场景本身缺乏纹理,也很难进行特征提取和匹配,如白墙。


众所周知,机器人面临的环境各色各异,所以,机器人需要一双适应任何环境的“眼睛”。而上述三个方案单一的来看都有明显的不足。那么,如何打造一款较为完美的定位导航和避障方案呢?这正是庞琳勇的初衷。小觅智能以双目为基础,加入结构光,采用双目的算法,再加上位移加速传感器,形成了一套全新的完整的软硬件一体化传感器方案。


“测量距离几十米,深度精度达到厘米级,同时反应速度又很快,可以适应室内室外工作,在三种传感器中,只有应用自然光的双目比较理想。但是双目也有自身的局限,它遇到室内白墙,无法找到特征点,所以也就没法匹配左右目的相同的特征点,其精度就会下降。而利用结构光打红外斑点到白墙上,相当于形成了图案,即可辅助双目分辨。”庞琳勇非常专业地解释了结构光和双目的结合点。


“我们的定位导航方案就像人眼,看了周围就可以知道自己的相对位置。”庞琳勇解释道, “小觅智能其实在赋予机器人三维度空间感知的能力。这主要体现在两个方面:定位导航和立体避障。首先,双目摄像头硬件需要测量机器人和各参照物的距离,然后用算法算出具体位置,这是定位导航。至于避障,以前的机器人,基本是靠超声避障。但超声只知道前面有东西,却不知道这个东西离你有多远,宽度多少,高度多少。”庞琳勇解释道,“机器人避障一定要知道障碍物的精确位置以及大小,而传统超声方案无法解决这些问题,视觉深度传感器则完美地解决了这一问题,所以很快成为机器人立体避障的标配。”除此之外,小觅智能利用视觉传感和位移加速传感互补形成了一个更加全面的深度传感器。“视觉对转动不太敏感,但是加速度传感器可以测出转动的加速度,相当于是将不同渠道收集到的信号融合在一起,保证了信息精确。”他说。


关于机器人自主导航定位的方案,我们比较熟悉的有思岚科技,其利用了视觉传感+激光雷达的方式。多传感融合会增加其鲁棒性,但激光雷达的使用大大增加了成本。庞琳勇希望仅视觉传感就可以让机器人实现定位导航和避障, 实现低成本,易量产。而关于机器人的双目软硬件一体的研究,此前都主要存在于大学实验室里,真正应用到工业级场景的还没有。值得一提的是,小觅智能强实力的团队一直致力于将这个技术应用带出象牙塔。


针对不同行业机器人的不同需求,小觅已经推出了两版双目结构光深度惯导摄像头:标准版和深度版。据庞琳勇介绍,标准版是双目+结构光+位移加速传感器,后面的算法是在主机上的 CPU 或 GPU 进行的。深度版本则是在标准版的基础上加了专有芯片模块,可以直接运算,不用耗费主机上的运算资源。


“我们现在的商业模式主要是从深度摄像头、到导航模块、再到针对不同行业和场景的机器人定位导航和避障的解决方案。小觅摄像头有标杆型客户,定位导航底盘得到了合作伙伴英伟达的推荐,业界的第一个双目扫地机方案完成,至于服务机器人方案,我们现在正和一家公司在合作一个很特殊的场景,而且已经拿到几千台的这个场景的机器人的订单了。”庞琳勇透露。


接下来,庞琳勇透露,小觅智能在汽车辅助驾驶 ADAS 领域还可以大展拳脚。ADAS 辅助驾驶市场目前以单目摄像头居多,以色列公司 Mobileye 占据了市场份额的半壁江山。不过,庞琳勇表示单目摄像头有一个缺点:无法直接测距离,首先它要判断出来前面是辆车,然后根据车牌的大小来反推距离。这两个过程都容易出问题,如假如它没有识别出车就无法测距离。“而双目不需要做判断,可以直接算出来距离,减少失误,所以双目肯定是一个趋势。”他说。


作为一个在底层创新深耕较久的人,庞琳勇已经有自己的一套创业看法。他认为,一些基础的创新需要团队做好多年,这些时间与精力铸就了一个企业的壁垒。”就像我们做的这个事情,别人不是想做就能做,他也需要花很多年的时间。而且很有可能做的产品和客户想要的差的很远。”他表示,找准需求市场也是必备课程。


“机器人移动和无人车肯定需要知道自己在什么地方,在走过程中别撞上东西,这是一个普遍的需求,而且这个需求是以前没有的。所以做这个肯定不会错。”庞琳勇一直对机器人自主导航的市场充满了信心。小觅智能,2014 年刚成立时时只有 5 个人的创始团队,在冬天没有暖气的无锡哆嗦着编程,2016 年 1 月其推出的搭载小觅双目的小觅机器人在 CES 上获得高度关注,而后,其将战略转变为提供解决方案。这一路,小觅智能的每个脚印都非常清晰。


目前,小觅智能已经完成了来自乐搏资本的天使轮融资、以及真格基金的 Pre-A 轮和来自成识资本、申通董事长陈德军、触控科技、优客工场和中关村国际控股的 A 轮融资,累计融资近亿元。


- - - - - - - -   END   - - - - - - - -


推荐阅读


点击图片即可阅读往期文章


“7” :不再谈消费升级还是降级,这个“严选”品牌只想让你对自己好一点




登录查看更多
2

相关内容

最新《深度学习自动驾驶》技术综述论文,28页pdf
专知会员服务
153+阅读 · 2020年6月14日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
基于视觉的三维重建关键技术研究综述
专知会员服务
160+阅读 · 2020年5月1日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
【德勤】中国人工智能产业白皮书,68页pdf
专知会员服务
303+阅读 · 2019年12月23日
专知会员服务
86+阅读 · 2019年12月13日
自动驾驶高精度定位如何在复杂环境进行
智能交通技术
18+阅读 · 2019年9月27日
自动驾驶汽车技术路线简介
智能交通技术
15+阅读 · 2019年4月25日
自动驾驶车载激光雷达技术现状分析
智能交通技术
17+阅读 · 2019年4月9日
【机器视觉】深度解析移动机器人的几种视觉算法
产业智能官
4+阅读 · 2018年11月10日
即时定位与地图构建技术浅析
计算机与网络安全
6+阅读 · 2018年7月13日
【观点】薛建儒:无人车的场景理解与自主运动
中国自动化学会
8+阅读 · 2018年1月24日
高大上的无人驾驶技术,学起来也没那么难!
计算机视觉战队
6+阅读 · 2017年12月27日
推荐|视觉SLAM漫淡:机器人即时定位与地图构建!
全球人工智能
8+阅读 · 2017年9月30日
【智能驾驶】史上最全自动驾驶系统解析
产业智能官
23+阅读 · 2017年8月21日
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
6+阅读 · 2018年7月9日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
Arxiv
3+阅读 · 2018年3月21日
VIP会员
相关VIP内容
最新《深度学习自动驾驶》技术综述论文,28页pdf
专知会员服务
153+阅读 · 2020年6月14日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
基于视觉的三维重建关键技术研究综述
专知会员服务
160+阅读 · 2020年5月1日
3D目标检测进展综述
专知会员服务
191+阅读 · 2020年4月24日
【德勤】中国人工智能产业白皮书,68页pdf
专知会员服务
303+阅读 · 2019年12月23日
专知会员服务
86+阅读 · 2019年12月13日
相关资讯
自动驾驶高精度定位如何在复杂环境进行
智能交通技术
18+阅读 · 2019年9月27日
自动驾驶汽车技术路线简介
智能交通技术
15+阅读 · 2019年4月25日
自动驾驶车载激光雷达技术现状分析
智能交通技术
17+阅读 · 2019年4月9日
【机器视觉】深度解析移动机器人的几种视觉算法
产业智能官
4+阅读 · 2018年11月10日
即时定位与地图构建技术浅析
计算机与网络安全
6+阅读 · 2018年7月13日
【观点】薛建儒:无人车的场景理解与自主运动
中国自动化学会
8+阅读 · 2018年1月24日
高大上的无人驾驶技术,学起来也没那么难!
计算机视觉战队
6+阅读 · 2017年12月27日
推荐|视觉SLAM漫淡:机器人即时定位与地图构建!
全球人工智能
8+阅读 · 2017年9月30日
【智能驾驶】史上最全自动驾驶系统解析
产业智能官
23+阅读 · 2017年8月21日
相关论文
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
6+阅读 · 2018年7月9日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
Arxiv
3+阅读 · 2018年3月21日
Top
微信扫码咨询专知VIP会员