We present an efficient semiparametric variational method to approximate the posterior distribution of Bayesian regression models combining subjective prior beliefs with an empirical risk function. Our results apply to all the mixed models predicting the data through a linear combination of the available covariates, including, as special cases, generalized linear mixed models, support vector machines, quantile and expectile regression. The iterative procedure designed for climbing the evidence lower bound only requires closed form updating formulas or the calculation of univariate numerical integrals, when no analytic solutions are available. Neither conjugacy nor elaborate data augmentation strategies are needed. As a generalization, we also extend our methodology in order to account for inducing sparsity and shrinkage priors, with particular attention to the generalizations of the Bayesian Lasso prior. The properties of the derived algorithm are then assessed through an extensive simulation study, in which we compare our proposal with Markov chain Monte Carlo, conjugate mean field variational Bayes and Laplace approximation in terms of posterior approximation accuracy and prediction error. A real data example is then presented through a probabilistic load forecasting application on the US power load consumption data.


翻译:我们提出了一个有效的半参数变异方法,以近似巴伊西亚回归模型的后向分布,将主观先前的信念与经验性风险功能相结合。我们的结果适用于所有混合模型,通过现有共变法的线性组合预测数据,包括作为特例的通用线性混合模型、辅助矢量机、微量和预期回归。为爬升证据而设计的迭代程序仅需要封闭式更新公式或计算单象体数字集成,在没有解析解决方案的情况下;不需要同系或详细制定数据增强战略。作为一般化,我们还扩展了我们的方法,以核算诱发紧张和缩缩缩前数,特别注意以前巴伊西亚拉索的概括性。然后通过广泛的模拟研究对衍生算法的特性进行评估,在这种研究中,我们将我们的提案与Markov链 Monte Carlo、 conjugate 表示场变异性海湾和Laplace近似近似值的后近似近似性精确性和预测错误方面进行比较。随后通过对美国电荷消耗数据的预测性负载数据进行预测应用来展示一个真实的数据实例。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
讲座报名丨 ICML专场
THU数据派
0+阅读 · 2021年9月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年8月10日
Arxiv
23+阅读 · 2022年2月24日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
讲座报名丨 ICML专场
THU数据派
0+阅读 · 2021年9月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员