Simple and accurate expressions for path gain are derived from electromagnetic fundamentals in a wide variety of common environments, including Line-of-Sight (LOS) and Non-Line-of-Sight (NLOS) indoor urban canyons, urban/rural macro, outdoor-indoor and suburban streets with vegetation. Penetration into a scattering region, sometimes aided by guiding, is the "universal" phenomenon shared by the diverse morphologies. Root Mean Square (RMS) errors against extensive measurements are under 5 dB, better than 3GPP models by 1-12 dB RMS, depending on environment. In urban canyons the models have 4.7 dB RMS error, as compared to 7.9 dB from linear fit to data and 13.9/17.2 dB from LOS/NLOS 3GPP models. The theoretical path gains depend on distance as a power law with exponents from a small set {1.5, 2, 2.5, 4}, specific to each morphology. This provides a theoretical justification for widely used power law empirical models. Only coarse environmental data is needed as parameters: street width, building height, vegetation depth, wall material and antenna heights.


翻译:获取路径的简单和准确的表达方式来自多种共同环境中的电磁基质,包括视觉线(LOS)和无视觉线(NLOS)室内城市峡谷、城市/农村宏观、户外和郊区街道以及植被。渗透到一个散布区域,有时通过指导帮助,是不同形态共有的“普遍”现象。相对于广泛测量的根平方(RMS)错误在5 dB之下,比1,12 dB RMS的3GPP模型好,这取决于环境。在城市峡谷中,模型有4.7 dB RMS错误,相比之下,从线性到数据为7.9 dB,从LOS/NLOS 3GPP模型为13.9/17.2 dB。理论路径的增益取决于距离法,即每个形态所特有的[1.5, 2, 2.5, 4}。这为广泛使用的权力法实验模型提供了理论依据。只有粗略的环境数据需要作为参数:街道宽度、建筑高度、植被深度、壁高和天线。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
11+阅读 · 2021年3月25日
Arxiv
18+阅读 · 2021年3月16日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员