The identification capacity is developed without randomization at neither the encoder nor the decoder. In particular, full characterization is established for the deterministic identification (DI) capacity for the Gaussian channel and for the general discrete memoryless channel (DMC) with and without constraints. Originally, Ahlswede and Dueck established the identification capacity with local randomness given at the encoder, resulting in a double exponential number of messages in the block length. In the deterministic setup, the number of messages scales exponentially, as in Shannon's transmission paradigm, but the achievable identification rates can be significantly higher than those of the transmission rates. Ahlswede and Dueck further stated a capacity result for the deterministic setting of a DMC, but did not provide an explicit proof. In this paper, a detailed proof is given for both the Gaussian channel and the general DMC. The DI capacity of a Gaussian channel is infinite regardless of the noise.


翻译:身份识别能力的发展没有在编码器或解码器上随机随机进行,特别是,对高山频道和一般离散无记忆频道的确定性识别(DI)能力以及不受约束和约束的完全定性,最初,Ahlswede和Dueck在编码器上以本地随机性建立了识别能力,造成区段内信息量的倍增。在确定性设置中,信息比例指数指数指数(如香农的传输模式),但可实现的识别率可能大大高于传输率。Ahlswede和Dueck进一步说明了DMC确定性设置的能力结果,但没有提供明确的证据。在本文中,为高山频道和一般DMC提供了详细的证据。高山频道的识别能力是无限的,不管噪音如何。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
42+阅读 · 2020年12月18日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Annual Review of Biochemistry外泌体综述
外泌体之家
5+阅读 · 2019年6月27日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Inherent Tradeoffs in Learning Fair Representations
Arxiv
0+阅读 · 2021年12月2日
Arxiv
4+阅读 · 2021年7月1日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
4+阅读 · 2020年3月27日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
Annual Review of Biochemistry外泌体综述
外泌体之家
5+阅读 · 2019年6月27日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员