【泡泡一分钟】利用监督学习的方法检测动态特征点(IV-1)

2018 年 4 月 6 日 泡泡机器人SLAM 泡泡一分钟

每天一分钟,带你读遍机器人顶级会议文章

标题:Learning to Detect Dynamic Feature Points

作者:Min-Gyu Park, Ju Hong Yoon, Jonghee Park, Jeong-Kyun Lee, and Kuk-Jin Yoon

来源:Intelligent Vehicles Symposium(IV 2017)

播音员:王肃

编译:陈建华

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要


       大家好,今天为大家带来的文章是——利用监督学习的方法检测动态特征点,该文章发表于IV2017。


       运动物体上动态点的检测是避免潜在碰撞的一项重要任务。然而,仅仅通过两帧图像来检测动态点是困难的,尤其是当输入数据(如车辆自身运动、视差图和光流)携带着各种噪声的时候。

图1 带有噪声的各种输入数据

     

       在本文中,作者提出了一种基于监督学习的方法,可以通过噪声数据来检测动态点。首先,考虑到深度不确定性随着与车辆距离增加按比例增长,作者将XZ平面(鸟瞰视图)划分为若干个区域。然后,基于两个运动度量指标计算得到运动矢量,并通过构建该运动矢量来训练每个区域的随机森林。

图2 本文方法的系统框架

图3 区域划分与随机森林训练示意图

       

       此外,为了减小输入数据的误差,作者通过成对像素点的平面性检查对运动矢量进行滤波,再将滤波后的运动矢量用于训练。最后的实验环节,作者通过与KITTI数据集上已有的方法进行检测性能比较,从而对本文所提出的方法进行验证。

图4  像素点的平面约束示意图

图5 不同方法的动态点检测结果对比

Abstract

       The detection of dynamic points on a moving platform is an important task to avoid a potential collision. However, it is difficult to detect dynamic points using only two frames, especially when various input data such as ego-motion, disparity map, and optical flow are noisy for computing the motion of points. In this paper, we propose a supervised learning-based approach to detect dynamic points in consideration of noisy input data. First of all, to consider depth ambiguity that proportionally increases according to the distance to the ego-vehicle, we divide the XZ-plane (bird-eye view) into several subregions. Then, we train a random forest for each subregion by constructing motion vectors computed based on two motion metrics. Here, in order to reduce errors of the input data, the motion vectors are filtered based on a pairwise planarity check and then filtered motion vectors are used for training. In the experiments, the proposed method is verified by comparing the detection performance with that of previous approaches on the KITTI dataset.


如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号


点击阅读原文,即可获取本文下载链接。

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com


登录查看更多
1

相关内容

监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。 监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。
基于深度学习的表面缺陷检测方法综述
专知会员服务
94+阅读 · 2020年5月31日
3D目标检测进展综述
专知会员服务
193+阅读 · 2020年4月24日
专知会员服务
42+阅读 · 2020年2月20日
【泡泡一分钟】基于表面的自主三维建模探索
泡泡机器人SLAM
9+阅读 · 2019年9月10日
【泡泡一分钟】动态环境下的高效长时间建图
泡泡机器人SLAM
6+阅读 · 2019年2月1日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡一分钟】语义直线检测与应用
泡泡机器人SLAM
7+阅读 · 2018年10月21日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Monocular Plan View Networks for Autonomous Driving
Arxiv
6+阅读 · 2019年5月16日
Learning Discriminative Model Prediction for Tracking
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
VIP会员
相关资讯
【泡泡一分钟】基于表面的自主三维建模探索
泡泡机器人SLAM
9+阅读 · 2019年9月10日
【泡泡一分钟】动态环境下的高效长时间建图
泡泡机器人SLAM
6+阅读 · 2019年2月1日
【泡泡一分钟】用于平面环境的线性RGBD-SLAM
泡泡机器人SLAM
6+阅读 · 2018年12月18日
【泡泡一分钟】语义直线检测与应用
泡泡机器人SLAM
7+阅读 · 2018年10月21日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Top
微信扫码咨询专知VIP会员