We analytically approximate the expected sum capacity loss between the optimal downlink precoding technique of dirty paper coding (DPC), and the sub-optimal technique of zero-forcing precoding, for multiuser channels. We also consider the most general case of multi-stream transmission to multiple users, where we evaluate the expected sum capacity loss between DPC and block diagonalization precoding. Unlike previously, assuming heterogeneous Ricean fading, we utilize the well known affine approximation to predict the expected sum capacity difference between both precoder types (optimal and sub-optimal) over a wide range of system and propagation parameters. Furthermore, for single-stream transmission, we consider the problem of weighted sum capacity maximization, where a similar quantification of the sum capacity difference between the two precoder types is presented. In doing so, we disclose that power allocation to different users proportional to their individual weights asymptotically maximizes the weighted sum capacity. Numerical simulations are presented to demonstrate the tightness of the developed expressions relative to their simulated counterparts.


翻译:我们分析地估计了肮脏纸张编码(DPC)的最佳下行编码预编码技术(DPC)和多用户频道零加码预编码亚最佳技术(DPC)之间的预期总容量损失。我们还考虑了多流传输给多用户的最一般案例,我们在此评估了DPC和块二进制预编码之间的预期总容量损失。与以前不同,我们假设不同的大麦淡化,我们利用众所周知的近距离近距离估计预测了在系统和传播参数范围广泛之前的预编码类型(最佳和次最佳)之间的预期总容量差异。此外,对于单流传输,我们考虑了加权总容量最大化的问题,我们提出了两种预编码类型之间总容量差异的类似量化。我们这样做时,我们披露了不同用户按其各自重量比例分配的电量,使加权总容量最大化。做了数字模拟,以显示发达表达与其模拟对应方的紧密性。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2020年12月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
9+阅读 · 2017年7月28日
Arxiv
54+阅读 · 2022年1月1日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2020年12月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
9+阅读 · 2017年7月28日
Top
微信扫码咨询专知VIP会员