The large number of antennas in massive MIMO systems allows the base station to communicate with multiple users at the same time and frequency resource with multi-user beamforming. However, highly correlated user channels could drastically impede the spectral efficiency that multi-user beamforming can achieve. As such, it is critical for the base station to schedule a suitable group of users in each transmission interval to achieve maximum spectral efficiency while adhering to fairness constraints among the users. User scheduling is an NP-hard problem, with complexity growing exponentially with the number of users. In this paper, we consider the user scheduling problem for massive MIMO systems. Inspired by recent achievements in deep reinforcement learning (DRL) to solve problems with large action sets, we propose \name{}, a dynamic scheduler for massive MIMO based on the state-of-the-art Soft Actor-Critic (SAC) DRL model and the K-Nearest Neighbors (KNN) algorithm. Through comprehensive simulations using realistic massive MIMO channel models as well as real-world datasets from channel measurement experiments, we demonstrate the effectiveness of our proposed model in various channel conditions. Our results show that our proposed model performs very close to the optimal proportionally fair (PF) scheduler in terms of spectral efficiency and fairness with more than one order of magnitude lower computational complexity in medium network sizes where PF is computationally feasible. Our results also show the feasibility and high performance of our proposed scheduler in networks with a large number of users.


翻译:大型MIMO系统中的天线数量庞大,使得基础站能够与多个用户同时和以多用户波束成形的频率资源与多个用户进行通信。然而,高度关联的用户渠道可能会极大地阻碍多用户波束成形所能达到的光谱效率。 因此,基地站必须在每个传输间隔内安排一组合适的用户,以便在用户中遵守公平限制的情况下实现最大光谱效率。 用户排期是一个难以解决的难题, 其复杂性随着用户人数的增加而成倍增长。 在本文中,我们考虑到大型MIMO系统的用户排期问题。 深强化学习(DRL)的最近成就, 可能会极大地妨碍多用户波束成形能够解决问题的光谱效率。 因此,我们建议根据最先进的Soft Actor-Crit(SAC) DRL(SAC)模型和 K-Nearest Neighbors(KNNN) 算法, 通过使用现实的大型MIMO频道频道模型的全面模拟, 以及来自频道测量实验的真实世界数据集, 我们用最高级强化的系统网络的进度, 展示了我们拟议中最精确的进度, 和最精确的进度的进度, 显示我们最接近的进度, 最精确的进度的进度, 显示我们最精确的进度, 和最精确的进度的进度的进度, 显示我们最接近的进度的进度的进度, 显示我们最接近的进度的进度的进度, 和最接近的轨道的进度, 显示我们最接近的轨道的进度的进度的进度的进度的进度, 显示我们最接近的进度, 和最短的轨道的轨道的进度的进度, 显示我们最短的进度的进度的进度, 显示我们最接近的进度, 显示我们最接近的轨道的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度, 。</s>

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
70+阅读 · 2022年6月28日
Artificial Intelligence: Ready to Ride the Wave? BCG 28页PPT
专知会员服务
26+阅读 · 2022年2月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年4月23日
Arxiv
21+阅读 · 2022年2月24日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员