Deterministic identification (DI) is addressed for Gaussian channels with fast and slow fading, where channel side information is available at the decoder. In particular, it is established that the number of messages scales as $2^{n\log(n)R}$, where $n$ is the block length and $R$ is the coding rate. Lower and upper bounds on the DI capacity are developed in this scale for fast and slow fading. Consequently, the DI capacity is infinite in the exponential scale and zero in the double-exponential scale, regardless of the channel noise.


翻译:解码器可提供频道侧信息,特别是确定电文量为2 ⁇ n\log(n)R}美元,其中美元为区段长度,美元为编码率。在这一尺度中,为快速和缓慢淡化而开发了数据量容量的下限和上限。因此,数据量在指数规模中是无限的,在双耗规模中是零,而不管频道噪音如何。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
15+阅读 · 2020年7月27日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
专知会员服务
61+阅读 · 2020年3月4日
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
9+阅读 · 2017年7月28日
Arxiv
0+阅读 · 2021年3月13日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
9+阅读 · 2017年7月28日
Top
微信扫码咨询专知VIP会员