We propose a framework for Bayesian Likelihood-Free Inference (LFI) based on Generalized Bayesian Inference. To define the generalized posterior, we use Scoring Rules (SRs), which evaluate probabilistic models given an observation. As in LFI we can sample from the model (but not evaluate the likelihood), we employ SRs with easy empirical estimators. Our framework includes novel approaches and popular LFI techniques (such as Bayesian Synthetic Likelihood), which benefit from the generalized Bayesian interpretation. Our method enjoys posterior consistency in a well-specified setting when a strictly-proper SR is used (i.e., one whose expectation is uniquely minimized when the model corresponds to the data generating process). Further, we prove a finite sample generalization bound and outlier robustness for the Kernel and Energy Score posteriors, and propose a strategy suitable for the LFI setup for tuning the learning rate in the generalized posterior. We run simulations studies with pseudo-marginal Markov Chain Monte Carlo (MCMC) and compare with related approaches, which we show do not enjoy robustness and consistency.


翻译:我们根据普遍化的贝耶斯语推论,提出了贝耶斯河沿岸无污染推论框架(LFI),为贝耶斯河以普遍化的贝耶斯河沿岸推论为基础,提出了贝耶斯河沿岸无污染推论框架(LFI)。为了界定普遍化的后方,我们使用Scoring 规则(SRs)来评估概率模型。正如在LFI中,我们可以从模型中抽样(但没有评估可能性),我们使用简单化的估测器,我们使用简易化的贝耶斯河沿岸推论(LFI),为贝耶斯河以普遍化的判读法(例如Bayesian Syntheticariclienne)提供了新的方法和流行的LFIFI技术(例如Bayesian Synthetricle),我们的方法在精确的设置中享有后方一致性(即当模型与数据生成过程相匹配时期望最小化)。此外,我们证明Kernel和能源分数的后方为有限性,并提出适合LFIFIFI在普通海边海脊山脉上调整学习率的战略。我们用假的模拟研究,我们并不具有一致性和强性。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年11月15日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年1月10日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员