Autonomous driving in urban crowds at unregulated intersections is challenging, where dynamic occlusions and uncertain behaviors of other vehicles should be carefully considered. Traditional methods are heuristic and based on hand-engineered rules and parameters, but scale poorly in new situations. Therefore, they require high labor cost to design and maintain rules in all foreseeable scenarios. Recently, deep reinforcement learning (DRL) has shown promising results in urban driving scenarios. However, DRL is known to be sample inefficient, and most previous works assume perfect observations such as ground-truth locations and motions of vehicles without considering noises and occlusions, which might be a too strong assumption for policy deployment. In this work, we use DRL to train lidar-based end-to-end driving policies that naturally consider imperfect partial observations. We further use unsupervised contrastive representation learning as an auxiliary task to improve the sample efficiency. The comparative evaluation results reveal that our method achieves higher success rates than the state-of-the-art (SOTA) lidar-based end-to-end driving network, better trades off safety and efficiency than the carefully tuned rule-based method, and generalizes better to new scenarios than the baselines. Demo videos are available at https://caipeide.github.io/carl-lead/.


翻译:在不受监管的十字路口,城市人群中自主驾驶是具有挑战性的,应仔细考虑其他车辆动态排斥和不确定行为。传统方法是超常的,基于手工设计的规则和参数,但在新情况下规模不高。因此,在所有可预见的情景中,设计和维护规则都需要高劳动力成本。最近,深度强化学习(DRL)在城市驾驶情景中显示出了有希望的结果。但据知,DRL的样本效率低下,而大多数以前的工作假设是完美的观察,如地面真实位置和车辆移动,而不考虑噪音和隐蔽,这可能是政策部署的一个过于强烈的假设。在这项工作中,我们使用DRL来培训基于LDAR的终端到终端驱动政策,这些政策自然考虑到不完善的部分观察。我们进一步使用非超强的对比代表性学习作为提高抽样效率的辅助任务。比较评价结果显示,我们的方法比State-the-art(SOudar-led-end-end)终端驱动网络的成功率更高,这或许是政策部署的有力假设。我们使用DLL来训练安全与效率更好的交易,比仔细调整规则/demodemodeal-deal-mab-de-deb-develisab-de-de-droisab-droismismismisldaldal as)比现有的基准/gal-viewdal-view/d-degal-dal-degal-dal-dal-dal-dal-dalismismismaps制制制制制制制制制制制制制制制制式方法更好。

0
下载
关闭预览

相关内容

【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
79+阅读 · 2020年6月11日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
使用vae与sac实现简单自动驾驶
CreateAMind
9+阅读 · 2019年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
carla无人驾驶模拟中文项目 carla_simulator_Chinese
CreateAMind
3+阅读 · 2018年1月30日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Monocular Plan View Networks for Autonomous Driving
Arxiv
6+阅读 · 2019年5月16日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
11+阅读 · 2018年4月25日
VIP会员
相关资讯
使用vae与sac实现简单自动驾驶
CreateAMind
9+阅读 · 2019年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
carla无人驾驶模拟中文项目 carla_simulator_Chinese
CreateAMind
3+阅读 · 2018年1月30日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员