轨迹规划对于自动驾驶至关重要,确保在复杂环境中实现安全高效的导航。尽管最近基于学习的方法,特别是强化学习(RL),在特定场景中展现了潜力,但RL规划器在训练效率和处理大规模现实驾驶场景方面仍面临挑战。在本文中,我们提出了CarPlanner,一种基于一致性的自回归规划器,利用RL生成多模态轨迹。自回归结构实现了高效的大规模RL训练,而一致性的引入通过保持时间步之间的一致性,确保了稳定的策略学习。此外,CarPlanner采用了一种生成-选择框架,结合专家引导的奖励函数和不变视角模块,简化了RL训练并提升了策略性能。大量分析表明,我们提出的RL框架有效解决了训练效率和性能提升的挑战,使CarPlanner成为自动驾驶轨迹规划的有前景的解决方案。据我们所知,我们是首个证明基于RL的规划器能够在具有挑战性的大规模现实数据集nuPlan上超越基于模仿学习(IL)和基于规则的最先进方法(SOTAs)的研究。我们提出的CarPlanner在这一高要求数据集中超越了基于RL、IL和规则的SOTA方法。

成为VIP会员查看完整内容
9

相关内容

【CVPR2023】DynamicDet:目标检测的统一动态架构
专知会员服务
26+阅读 · 2023年4月15日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
23+阅读 · 2022年10月8日
【ICML2022】DRIBO:基于多视图信息瓶颈的鲁棒深度强化学习
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
3倍加速CPU上的BERT模型部署
ApacheMXNet
11+阅读 · 2020年7月13日
【CVPR 2020 Oral】小样本类增量学习
专知
18+阅读 · 2020年6月26日
PyTorch & PyTorch Geometric图神经网络(GNN)实战
专知
81+阅读 · 2019年6月1日
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
436+阅读 · 2023年3月31日
Arxiv
74+阅读 · 2023年3月26日
Arxiv
157+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【CVPR2023】DynamicDet:目标检测的统一动态架构
专知会员服务
26+阅读 · 2023年4月15日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
23+阅读 · 2022年10月8日
【ICML2022】DRIBO:基于多视图信息瓶颈的鲁棒深度强化学习
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员