Fast inference of numerical model parameters from data is an important prerequisite to generate predictive models for a wide range of applications. Use of sampling-based approaches such as Markov chain Monte Carlo may become intractable when each likelihood evaluation is computationally expensive. New approaches combining variational inference with normalizing flow are characterized by a computational cost that grows only linearly with the dimensionality of the latent variable space, and rely on gradient-based optimization instead of sampling, providing a more efficient approach for Bayesian inference about the model parameters. Moreover, the cost of frequently evaluating an expensive likelihood can be mitigated by replacing the true model with an offline trained surrogate model, such as neural networks. However, this approach might generate significant bias when the surrogate is insufficiently accurate around the posterior modes. To reduce the computational cost without sacrificing inferential accuracy, we propose Normalizing Flow with Adaptive Surrogate (NoFAS), an optimization strategy that alternatively updates the normalizing flow parameters and the weights of a neural network surrogate model. We also propose an efficient sample weighting scheme for surrogate model training that ensures some global accuracy of the surrogate while capturing the likely regions of the parameters that yield the observed data. We demonstrate the inferential and computational superiority of NoFAS against various benchmarks, including cases where the underlying model lacks identifiability. The source code and numerical experiments used for this study are available at https://github.com/cedricwangyu/NoFAS.


翻译:从数据中快速推断数字模型参数是产生广泛应用的预测模型的重要先决条件。使用Markov链 Monte Carlo等以抽样为基础的方法,在每次概率评估都计算费用昂贵时,可能会变得棘手。新的方法将变异推断与正常流动相结合,其特点是计算成本随着潜在变数空间的维度而仅线性增长,并依靠梯度优化而不是抽样,为巴伊西亚人对模型参数的推断提供一种更有效的方法。此外,经常评估昂贵可能性的成本可以通过以非线外训练的代金模型取代真实模型,如神经网络等来降低。然而,如果代金在后方模型周围的代金值不够准确,这种办法可能会产生显著的偏差。为了降低计算成本,同时又不牺牲潜在变数的准确性,我们提议采用以梯度为基础的优化模型来更新正常流参数和神经源网络模型的权重。我们还提议,在代金基值模型上采用高效的样本加权比重方法,用于代金基值模型的模型,用于测量全球的比值测试。我们使用的各种计算法度模型的精确性模型,用以测量各种可测测测算。

0
下载
关闭预览

相关内容

因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
61+阅读 · 2020年12月11日
【Google】梯度下降,48页ppt
专知会员服务
79+阅读 · 2020年12月5日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
107+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
242+阅读 · 2020年4月19日
简明扼要!Python教程手册,206页pdf
专知会员服务
46+阅读 · 2020年3月24日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2018年4月26日
VIP会员
相关VIP内容
因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
61+阅读 · 2020年12月11日
【Google】梯度下降,48页ppt
专知会员服务
79+阅读 · 2020年12月5日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
107+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
242+阅读 · 2020年4月19日
简明扼要!Python教程手册,206页pdf
专知会员服务
46+阅读 · 2020年3月24日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员