We propose a multistage method for making inference at all levels of a Bayesian hierarchical model (BHM) using natural data partitions to increase efficiency by allowing computations to take place in parallel form using software that is most appropriate for each data partition. The full hierarchical model is then approximated by the product of independent normal distributions for the data component of the model. In the second stage, the Bayesian maximum {\it a posteriori} (MAP) estimator is found by maximizing the approximated posterior density with respect to the parameters. If the parameters of the model can be represented as normally distributed random effects then the second stage optimization is equivalent to fitting a multivariate normal linear mixed model. This method can be extended to account for common fixed parameters shared between data partitions, as well as parameters that are distinct between partitions. In the case of distinct parameter estimation, we consider a third stage that re-estimates the distinct parameters for each data partition based on the results of the second stage. This allows more information from the entire data set to properly inform the posterior distributions of the distinct parameters. The method is demonstrated with two ecological data sets and models, a random effects GLM and an Integrated Population Model (IPM). The multistage results were compared to estimates from models fit in single stages to the entire data set. Both examples demonstrate that multistage point and posterior standard deviation estimates closely approximate those obtained from fitting the models with all data simultaneously and can therefore be considered for fitting hierarchical Bayesian models when it is computationally prohibitive to do so in one step.


翻译:我们提出一个多阶段方法,用于在贝叶斯等级模型(BHM)的所有级别上使用自然数据分割层进行推断,以提高效率,方法是利用最适合每个数据分割区的软件,使计算以平行形式进行,从而使用自然数据分割层的自然数据分割层,从而提高效率。然后,完全的等级模型以独立正常分布模型数据组成部分的产物相近。在第二个阶段,通过尽量利用相对于参数的近似远端密度,可以找到贝叶斯最高偏差估计点。如果模型的参数可以以通常的分布性随机效应表示,那么第二阶段的优化相当于匹配多变量正常线性混合模型。这个方法可以扩展,以说明数据分割区之间共享的共同固定参数,以及不同分区之间的参数。在不同的参数估算中,我们考虑的第三个阶段,即根据第二阶段的结果,重新估计每个数据分布区差的参数。因此,可以让整个数据组的更多信息以适当的方式向远端分布不同的精确度参数,然后,第二阶段的优化相当于一个多变量模型,然后用两个集级数据组,然后用一个模型,然后用一个比数级数据组,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个比数级数据组,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型来显示一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型,用来,然后用来,然后用一个模型,然后用一个模型,用来,然后用一个模型,然后用一个模型,然后用一个模型,然后用一个模型来,然后用一个模型来,然后用一个模型来,然后用一个模型来,然后用一个模型来,然后用来,一个模型来,一个模型来,一个模型来,然后用来,然后用一个模型来,然后用一个模型来,一个模型来,然后用一个模型来,一个模型来,一个模型来,一个模型来,一个模型来,一个模型来,一个比较一个模型,一个模型来,用来,一个模型来,一个模型来,一个模型来,一个模型来,一个模型,一个模型来,一个模型来,一个模型来,用来,一个模型来,一个模型来,一个

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
自动结构变分推理,Automatic structured variational inference
专知会员服务
38+阅读 · 2020年2月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
已删除
AI掘金志
7+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年11月12日
Arxiv
3+阅读 · 2020年5月1日
Arxiv
3+阅读 · 2018年11月19日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
自动结构变分推理,Automatic structured variational inference
专知会员服务
38+阅读 · 2020年2月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员