We prove an exponential decay concentration inequality to bound the tail probability of the difference between the log-likelihood of discrete random variables on a finite alphabet and the negative entropy. The concentration bound we derive holds uniformly over all parameter values. The new result improves the convergence rate in an earlier result of Zhao (2020), from $(K^2\log K)/n=o(1)$ to $ (\log K)^2/n=o(1)$, where $n$ is the sample size and $K$ is the size of the alphabet. We further prove that the rate $(\log K)^2/n=o(1)$ is optimal. The results are extended to misspecified log-likelihoods for grouped random variables. We give applications of the new result in information theory.


翻译:我们证明指数衰变浓度不平等,可以将固定字母上离散随机变量和负英特罗比的对数概率差的尾概率捆绑起来。我们所得的浓度一致地维持在所有参数值之上。新的结果提高了赵(2020年)早期结果的趋同率,从(K)2\log K)/n=o(1)美元提高到(g)K)2/2/n=o(1)美元,其中一美元是样本大小,一美元是字母大小。我们进一步证明美元(log K)2/n=o(1)美元是最佳的。结果扩大到分类随机变量的误定义的对日特异系数。我们在信息理论中应用新结果。

0
下载
关闭预览

相关内容

数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
38+阅读 · 2020年7月27日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
75+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月21日
VIP会员
Top
微信扫码咨询专知VIP会员