【泡泡一分钟】城市驾驶环境中使用道路环境进行车辆检测、追踪及行为分析

2019 年 6 月 18 日 泡泡机器人SLAM
 

每天一分钟,带你读遍机器人顶级会议文章

标题:Vehicle Detection, Tracking and Behavior Analysis in Urban Driving Environments using Road Context

作者:Shashwat Verma, You Hong Eng, Hai Xun Kong, Hans Andersen, Malika Meghjani, Wei Kang Leong, Xiaotong Shen, Chen Zhang, Marcelo H. Ang Jr., and Daniela Rus

来源:2018 IEEE International Conference on Robotics and Automation (ICRA)

编译:明煜航

审核:颜青松  陈世浪

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

       作者展示了一种实时车辆检测及追踪的系统来实现诸如城市环境中驾驶行为分析的复杂任务。作者提出了一种结合了单目相机和2D Lidar的鲁棒的融合系统。该系统充分利用了以下3个关键的部分:使用深度学习技术的鲁棒的车辆检测,从Lidar获得的高精度距离数据,以及预先知道的道路环境。相机与Lidar传感器的融合,数据关联以及跟踪管理全部都在考虑了传感器的特征之后在全局地图坐标系上执行。

       最后,作者提出在编码了道路环境的车道坐标系中执行行为推理来检查被追踪的车辆的状态。作者通过追踪领头车辆在执行诸如保持车道、路口停车启动、变换车道、超车及转向灯常见城市驾驶行为验证了他们提出的方法的可行性。领头车辆在2.3km长的路线上被联系追踪并将其驾驶行为进行了可靠地分类。

                           Abstract

We present a real-time vehicle detection and tracking system to accomplish the complex task of driving behavior analysis in urban environments. We propose a robust fusion system that combines a monocular camera and a 2D Lidar. This system takes advantage of three key components: robust vehicle detection using deep learning techniques, high precision range estimation from Lidar, and road context from the prior map knowledge. The camera and Lidar sensor fusion, data association and track management are all performed in the global map coordinate system by taking into account the sensors’ characteristics. Lastly, behavior reasoning is performed by examining the tracked vehicle states in the lane coordinate system in which the road context is encoded. We validated our approach by tracking a leading vehicle while it performed usual urban driving behaviors such as lane keeping, stop-and- go at intersections, lane changing, overtaking and turning. The leading vehicle was tracked consistently throughout the 2.3 km route and its behavior was classified reliably.


如果你对本文感兴趣,请点击点击阅读原文下载完整文章,如想查看更多文章请关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

百度网盘提取码:zpx0

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/bbs/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com

登录查看更多
3

相关内容

计算机视觉中运动行为分析就是在不需要人为干预的情况下,综合利用计算机视觉、模式识别、图像处理、人工智能等诸多方面的知识和技术对摄像机拍录的图像序列进行自动分析,实现动态场景中的人体定位、跟踪和识别,并在此基础上分析和判断人的行为,其最终目标是通过对行为特征数据的分析来获取行为的语义描述与理解。运动人体行为分析在智能视频监控、高级人机交互、视频会议、基于行为的视频检索以及医疗诊断等方面有着广泛的应用前景和潜在的商业价值,是近年来计算机视觉领域最活跃的研究方向之一。 它包含视频中运动人体的自动检测、行为特征提取以及行为理解和描述等,属于图像分析和理解的范畴。从技术角度讲,人体行为分析和识别的研究内容相当丰富,涉及到图像处理、计算机视觉、模式识别、人工智能、形态学等学科知识。
基于视觉的三维重建关键技术研究综述
专知会员服务
158+阅读 · 2020年5月1日
专知会员服务
31+阅读 · 2020年4月24日
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
专知会员服务
85+阅读 · 2019年12月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【泡泡一分钟】变化环境下激光地图辅助视觉惯性定位
泡泡机器人SLAM
15+阅读 · 2019年5月22日
【泡泡一分钟】无地图驾驶的深层语义车道分割
泡泡机器人SLAM
3+阅读 · 2019年3月11日
【泡泡一分钟】DS-SLAM: 动态环境下的语义视觉SLAM
泡泡机器人SLAM
23+阅读 · 2019年1月18日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
VIP会员
Top
微信扫码咨询专知VIP会员