【导读】麻省理工学院和丰田发布DriveSeg数据集以加速自动驾驶研究,DriveSeg包含许多常见道路对象的精确像素级表示,并通过连续视频驾驶场景的镜头。
我们如何训练自动驾驶模型,以加深对周围世界的认识?计算机能否从过去的经验中学习以识别未来的模式,以帮助他们安全地应对新的不可预测的情况?
麻省理工学院运输与物流中心的AgeLab和丰田合作安全研究中心(CSRC)的研究人员发布了DriveSeg的开放数据集。
通过发布DriveSeg,麻省理工学院和丰田汽车正在努力推进自动驾驶系统的研究,就像人类的感知一样,自动驾驶系统将驾驶环境视为连续的视觉信息流。
迄今为止,提供给研究团体的自动驾驶数据主要由大量静态的单一图像组成,这些图像可用于识别和跟踪在道路内和道路周围发现的常见物体,例如自行车,行人或交通信号灯,通过使用“边界框”。相比之下,DriveSeg包含许多相同的常见道路对象的更精确的像素级表示,但是是通过连续视频驾驶场景的镜头。这种类型的全场景分割对于识别更多不总是具有这种定义和统一形状的无定形对象(例如道路建设和植被)尤其有用。
根据Sherony的说法,基于视频的驾驶场景感知提供的数据流更类似于动态,现实世界的驾驶情况。它还使研究人员能够随着时间的推移探索数据模式,这可能推动机器学习,场景理解和行为预测方面的进步。
DriveSeg是免费提供的,研究人员和学术界可将其用于非商业目的。数据由两部分(manual与semi-auto)组成。DriveSeg(manual)是在马萨诸塞州剑桥市繁忙的街道上白天捕获的2分47秒的高分辨率视频。该视频的5,000帧使用12类道路对象的每像素人工标签进行密集注释。
DriveSeg(semi-auto)是从MIT高级车辆技术(AVT)联盟数据中提取的20,100个视频帧(67个10秒的视频剪辑)。DriveSeg(Semi-auto)与DriveSeg(manual)具有相同的像素级语义注释,除了注释是通过MIT开发的新型半自动注释方法完成的。与手动注释相比,此方法利用了手动和计算的努力,可以以较低的成本更有效地粗略地注释数据。创建该数据集的目的是评估注释各种现实驾驶场景的可行性,并评估在通过基于AI的标记系统创建的像素标记上训练车辆感知系统的潜力。
数据集主页:https://agelab.mit.edu/driveseg
原文链接:http://news.mit.edu/2020/mit-toyota-release-visual-open-data-accelerate-autonomous-driving-research-0618