A statistical method for the elicitation of priors in Bayesian generalised linear models (GLMs) and extensions is proposed. Probabilistic predictions are elicited from the expert to parametrise a multivariate t prior distribution for the unknown linear coefficients of the GLM and an inverse gamma prior for the dispersion parameter, if unknown. The elicited predictions condition on defined elicitation scenarios. Dependencies among scenarios are then elicited from the expert by additionally conditioning on hypothetical experiments. Elicited conditional medians efficiently parametrise a canonical vine copula model of dependence that may be truncated for efficiency. The statistical elicitation method permits prior parametrisation of GLMs with alternative choices of design matrices or observation models from the same elicitation session. Extensions of the method apply to multivariate data, data with bounded support, semi-continuous data with point mass at zero, and count data with overdispersion or zero-inflation. A case study elicits a prior for an extended GLM embedded in a statistical model of overdispersed counts described by a binomial-simplex mixture distribution. The elicited canonical vine model of dependence is found to incorporate substantial information into the prior. The procedures of the statistical elicitation method are implemented in the R package eglm.


翻译:本文提出了一种用于贝叶斯广义线性模型(GLMs)和其扩展的先验引入的统计方法。通过向专家征求概率预测,从而为GLM的未知线性系数提供多元t分布的先验分布以及未知离散化参数的反伽马先验。征求的预测结果取决于定义的征求场景,并且可以进一步从专家那里获得场景之间的依赖关系,通过额外的假设实验进行概率条件的征集。征集到的条件中位数有效地参数化依赖的标准葡萄藤(vine copula)模型,从而可以提高效率。该统计引入方法支持从同一次征集中针对GLM的不同设计矩阵或观测模型进行先验参数化的功能。其扩展应用于多元数据、受限制的支持数据、在零点处存在点质量的半连续数据以及存在过度离散度或零膨胀的计数数据。本文通过案例研究向专家征集了一个扩展GLM的先验,该扩展GLM嵌入了一个由二项式-简单六面体混合分布描述的过度分散计数的统计模型中。结果表明,征集的标准葡萄藤模型能够将大量信息整合到先验中。本文的征集方法已在R语言包eglm中实现。

0
下载
关闭预览

相关内容

JCIM丨DRlinker:深度强化学习优化片段连接设计
专知会员服务
6+阅读 · 2022年12月9日
【硬核书】树与网络上的概率,716页pdf
专知会员服务
72+阅读 · 2021年12月8日
专知会员服务
117+阅读 · 2021年10月6日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
神经网络高斯过程 (Neural Network Gaussian Process)
PaperWeekly
0+阅读 · 2022年11月8日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月12日
VIP会员
相关资讯
神经网络高斯过程 (Neural Network Gaussian Process)
PaperWeekly
0+阅读 · 2022年11月8日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员