End-to-end (E2E) autonomous driving models that take only camera images as input and directly predict a future trajectory are appealing for their computational efficiency and potential for improved generalization via unified optimization; however, persistent failure modes remain due to reliance on imitation learning (IL). While online reinforcement learning (RL) could mitigate IL-induced issues, the computational burden of neural rendering-based simulation and large E2E networks renders iterative reward and hyperparameter tuning costly. We introduce a camera-only E2E offline RL framework that performs no additional exploration and trains solely on a fixed simulator dataset. Offline RL offers strong data efficiency and rapid experimental iteration, yet is susceptible to instability from overestimation on out-of-distribution (OOD) actions. To address this, we construct pseudo ground-truth trajectories from expert driving logs and use them as a behavior regularization signal, suppressing imitation of unsafe or suboptimal behavior while stabilizing value learning. Training and closed-loop evaluation are conducted in a neural rendering environment learned from the public nuScenes dataset. Empirically, the proposed method achieves substantial improvements in collision rate and route completion compared with IL baselines. Our code will be available at [URL].


翻译:仅以相机图像作为输入并直接预测未来轨迹的端到端自动驾驶模型,因其计算效率以及通过统一优化提升泛化能力的潜力而备受关注;然而,由于对模仿学习的依赖,其仍存在持续性的失效模式。虽然在线强化学习可以缓解模仿学习引发的问题,但基于神经渲染的仿真和大型端到端网络的计算负担,使得迭代式的奖励与超参数调优成本高昂。我们提出了一种仅使用相机的端到端离线强化学习框架,该框架不进行额外的探索,仅在一个固定的仿真数据集上进行训练。离线强化学习具有强大的数据效率和快速的实验迭代能力,但容易因对分布外动作的高估而导致训练不稳定。为解决此问题,我们从专家驾驶日志中构建伪真实轨迹,并将其作为行为正则化信号,以抑制对不安全或次优行为的模仿,同时稳定价值学习。训练与闭环评估在一个从公开nuScenes数据集学习得到的神经渲染环境中进行。实验结果表明,与模仿学习基线相比,所提方法在碰撞率和路线完成率方面均取得了显著提升。我们的代码将在[URL]公开。

0
下载
关闭预览

相关内容

国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员