Vehicle platooning, one of the advanced services supported by 5G NR-V2X, improves traffic efficiency in the connected intelligent transportation systems (C-ITSs). However, the packet delivery ratio of platoon communication, especially in the out-of-coverage area, is significantly impacted by the random selection algorithms employed in the current resource allocation scheme. In this paper, we first analyze the collision probability via the random selection algorithm adopted in the current standard. Subsequently, we then investigate the deep reinforcement learning (DRL) algorithm that decreases the collision probability by letting the agent (vehicle) learn from the communication environment. Monte Carlo simulation is utilized to verify the results obtained in the analytical model and to compare the results between the two discussed algorithms. Numerical results show that the proposed DRL algorithm outperforms the random selection algorithm in terms of different vehicle density, which at least lowering the collision probability by 73% and 45% in low and high vehicle density respectively.


翻译:由5G NR-V2X 支持的先进服务之一车辆排,提高了连通智能运输系统(C-ITS)的交通效率;然而,排通信的包件交付率,特别是在覆盖范围以外地区,受到当前资源分配办法采用的随机选择算法的重大影响;在本文中,我们首先通过现行标准采用的随机选择算法分析碰撞概率;随后,我们调查了深度强化学习算法,该算法通过让代理商(车辆)从通信环境中学习而降低碰撞概率。 Monte Carlo模拟用于核查分析模型的结果并比较所讨论的两种算法之间的结果。数字结果显示,拟议的DRL算法在不同的车辆密度方面超过了随机选择算法,这些算法至少使低和高车辆密度的碰撞概率概率分别降低73%和45%。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Deep Reinforcement Learning 深度增强学习资源
数据挖掘入门与实战
7+阅读 · 2017年11月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
5+阅读 · 2018年6月12日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Deep Reinforcement Learning 深度增强学习资源
数据挖掘入门与实战
7+阅读 · 2017年11月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员