The Pitman-Yor process is a nonparametric species sampling prior with number of different species of the order of $n^\sigma$ for some $\sigma>0$. In case of an atomless true distribution, the asymptotic distribution of the posterior of the Pitman-Yor process was known but typically inconsistent. In this paper, we extend this result into a general theorem for arbitrary true distributions. For discrete distributions the posterior is consistent, but it turns out that there can be a bias which does not converge to zero at the $\sqrt{n}$ rate. We propose a bias correction and show that after correcting for the bias, the posterior distribution will be asymptotically normal. Without the bias correction, the coverage of the credible sets can be arbitrarily low, and we illustrate this finding with simulations where we compare the coverage of corrected and uncorrected credible sets.


翻译:Pitman- Yor 过程是一个非参数性物种取样过程, 之前有不同物种数量, 依次为 $@sigma$, 约 $\ sigma>0 。 在无原子真实分布的情况下, Pitman- Yor 过程的后端分布是已知的, 但通常不一致 。 在本文中, 我们将此结果扩展为任意真实分布的一般理论。 对于离散分布, 后端分布是一致的, 但结果显示, 可能有偏差, 按 $\sqrt{n} 的速率不至零。 我们建议纠正偏差, 并显示在纠正偏差后, 后端分布将是平时正常的。 没有偏差校正, 可信的数据集的覆盖范围可以任意地降低, 我们用模拟来比较校正和不校正的可信数据集的覆盖范围, 我们用模拟来说明这一结果 。

0
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
专知会员服务
50+阅读 · 2020年12月14日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年4月4日
Arxiv
0+阅读 · 2021年4月4日
Arxiv
0+阅读 · 2021年4月2日
Arxiv
0+阅读 · 2021年4月2日
Arxiv
14+阅读 · 2020年12月17日
VIP会员
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员