Consider a parametric model of distributions and the closest distribution in the model to the true distribution that is located outside the model. If we measure the closeness between two distributions with Kullback-Leibler divergence, the closest distribution is called "information projection" ([10]). The estimation risk of MLE is defined as the expectation of Kullback-Leibler divergence between the information projection and the predictive distribution with plugged-in MLE . We derived the asymptotic expansion of the risk up to the $n^{-2}$-order. On the other hand, we studied how small the divergence between the true distribution and the predictive distribution must be in order that Bayes error rate between the two distributions is guaranteed to be lower than a specified value. Combining these results, we proposed a criteria ("$p-n$ criteria") on whether MLE is sufficiently close to the information projection or not under the given model and the sample. Especially the criteria for an exponential family model is relatively simple and could be used for a complicated model without an explicit form of the normalizing constant. This criteria can be used as the solution to the sample size problem or the model acceptance (we also studied the relation of our results to the information criteria). We illustrated how to use the criteria through two practical data sets.


翻译:考虑模型中分布分布的参数模型以及模型中最接近模型外真实分布的分布模式。 如果我们测量两种分布在 Kullback- Leibler 差异之间的距离, 则最接近的分布被称为“ 信息预测 ” ( [10] ) 。 MLE 的估计风险被定义为 Kullback- Leiber 信息预测与插插入 MLE 的预测分布之间的预期差异。 我们从中推算出, 风险的无症状扩展到 $n ⁇ -2} $- order 。 另一方面, 我们研究了真实分布和预测分布之间的差差小, 以确保两种分布之间的贝斯错误率低于特定值。 将这些结果结合起来, 我们提出了一个标准( $- p- n$ 标准 ), 即 MLE 是否足够接近信息预测, 或没有在给定模型和样本下。 特别是指数式家庭模型的标准比较简单, 可以用于复杂的模型, 而没有明确的常态形式。 这个标准可以用来作为我们所研究的样本标准 的解决方案 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月8日
A Robust Approach to ARMA Factor Modeling
Arxiv
0+阅读 · 2021年7月8日
VIP会员
相关VIP内容
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员