点击上方“计算机视觉life”,选择“星标”
快速获得最新干货
本文由刘国庆授权转载,未经允许,不得二次转载
来源:
https://www.zhihu.com/question/386044933/answer/1140450942
我还是个学生,没有参与过实际企业的项目,就我在参与实验室项目的经历,谈谈我认为的几点原因吧:
开源系统受对应的开源许可协议限制,有的开源许可协议不支持闭源,有的不支持商业应用。
这个我比较有印象的是我学长给我的一个华为早年路由器HG255d,当时好像就是因为在某种开源方案上进行修改后商用,但其使用的开源协议要求后续修改版本必须开源,后来迫于舆论华为才把这款路由器的各种技术文档公开出来。好像是这个事情吧,我也不太清楚,如果某企业使用开源系统的过程中违反了开源许可协议,著作权所有人可以打官司。
开源系统大多只着眼解决一个小问题,离企业要解决的实际问题相差还是比较多。
举个例子,很多开源SLAM系统号称自己有多么高的精度,但是实现这样高精度受到环境和传感器的限制;个人感觉实际应用的时候,精度差不多就够了,可靠性是更加值得关注的。我们都知道视惯融合SLAM鲁棒性好,理论上在摄像头被遮挡的情况下,视惯融合SLAM依靠IMU数据在短时间内依旧可以正常工作,但是真正实现这一点的开源系统还很少。
又比如,近些年比较热闹的语义SLAM,语义信息获取这块儿要么是离线处理数据集得到的,要么是直接放在一台深度学习服务器上运行的,如果我想让一台机器人小车具有语义SLAM的功能,按照这些系统的做法我难道要让机器人背上一台服务器,带个大电池+逆变器供电吗……(这就是我们实验室做项目的时候遇到的问题[摊手])
对于企业应用SLAM技术的平台(移动机器人,无人机,无人汽车等,AR等),现有开源系统不能够有效利用具体应用场景的资源
举几个例子,对于移动机器人有轮式里程计,有效利用的开源系统非常少,而且轮式里程计这个东西,室内平地场景,和室外越野场景,又是不同的数据处理逻辑;对于无人机,飞控本身就携带了IMU,然而许多成品飞控并没有把该IMU的数据向外暴露出来,对于暴露出来的,IMU数据也或多或少受到飞行状态(桨叶转速,机架结构,加速方向等)的影响,和静止时的IMU数据处理可能也略有不同;对于上面提到的语义SLAM问题,如果机器人小车在室内网络环境覆盖下,可以考虑使用云端计算的方式辅助完成语义信息获取,但是在野外无网络环境的时候就没招了。
上面的情况其实大多数开源SLAM系统魔改一下也能用,但有些企业的产品还有很丰富的传感器组合,如普渡的送餐机器人,用一个雷达+两个RealSence做建图;又如一维弦的MORO 1代,充当眼睛的RealSence可以更改俯仰角;又如Momenta的自动泊车系统,携带了4个鱼眼、1个前视还有12个超声波模组;微软的Hololens眼镜,正面好多摄像头(我忘记数了。。。);对于那些自主移动的机器人来说,机器人的运动指令还可以被获取促进自身的SLAM过程,相当于提供了运动先验。这些不同的传感器设计和组合,绝大多数开源SLAM系统从框架上就无法满足需求,这种情况下修改开源系统就没有太多意义了,不如参考各大优秀开源系统的设计,自研SLAM系统。精度高的不是最好的,速度快也不是最好的,适合产品需求的才是最好的,而产品需求只有企业自己最了解。
我觉得有些企业也是在开源SLAM框架上进行改动吧,但是他们不这样宣传而已,毕竟对外声称“自研系统”比声称“在某开源SLAM系统XX上进行的改进”更能够体现企业的实力。
应当啰嗦一下,我没有参与过实际企业的项目、写这篇回答时也没实习经历,所以表述会有不严谨和错误的地方,欢迎各位行业内的前辈拍砖指正。
欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
投稿、合作也欢迎联系:simiter@126.com
长按关注计算机视觉life
给优秀的自己点个赞