In recent years, surrogate models have been successfully used in likelihood-free inference to decrease the number of simulator evaluations. The current state-of-the-art performance for this task has been achieved by Bayesian Optimization with Gaussian Processes (GPs). While this combination works well for unimodal target distributions, it is restricting the flexibility and applicability of Bayesian Optimization for accelerating likelihood-free inference more generally. We address this problem by proposing a Deep Gaussian Process (DGP) surrogate model that can handle more irregularly behaved target distributions. Our experiments show how DGPs can outperform GPs on objective functions with multimodal distributions and maintain a comparable performance in unimodal cases. This confirms that DGPs as surrogate models can extend the applicability of Bayesian Optimization for likelihood-free inference (BOLFI), while adding computational overhead that remains negligible for computationally intensive simulators.


翻译:近年来,代用模型被成功地用于无可能性的推断,以减少模拟器评价的数量。目前这项工作的先进性能是通过巴伊西亚优化与高斯进程(GPs)实现的。虽然这种组合对单一方式目标分布效果良好,但它限制了巴伊西亚优化对于更普遍地加快无可能性推断的灵活性和适用性。我们通过提出深海高斯进程(DGP)替代模型来解决这一问题,该模型可以处理更不正常的不规则行为目标分布。我们的实验显示,DGPs如何在采用多式联运分布的客观功能上优于GPs,并在单式案例中保持类似的性能。这证实,DGPs作为代用模型可以扩大Bayesian优化对无可能性推断的适用性(BOLFI),同时在计算密集的模拟器中增加仍然微不足道的计算间接费用。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
因果图,Causal Graphs,52页ppt
专知会员服务
243+阅读 · 2020年4月19日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
已删除
将门创投
4+阅读 · 2018年6月26日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Dynamic Inference
Arxiv
0+阅读 · 2021年11月29日
Arxiv
0+阅读 · 2021年11月25日
Arxiv
7+阅读 · 2021年10月12日
Arxiv
10+阅读 · 2021年2月18日
Arxiv
3+阅读 · 2018年6月18日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
已删除
将门创投
4+阅读 · 2018年6月26日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Top
微信扫码咨询专知VIP会员