We propose a generalised framework for the updating of a prior ensemble to a posterior ensemble, an essential yet challenging part in ensemble-based filtering methods. The proposed framework is based on a generalised and fully Bayesian view on the traditional ensemble Kalman filter (EnKF). In the EnKF, the updating of the ensemble is based on Gaussian assumptions, whereas in our general setup the updating may be based on another parametric family. In addition, we propose to formulate an optimality criterion and to find the optimal update with respect to this criterion. The framework is fully Bayesian in the sense that the parameters of the assumed forecast model are treated as random variables. As a consequence, a parameter vector is simulated, for each ensemble member, prior to the updating. In contrast to existing fully Bayesian approaches, where the parameters are simulated conditionally on all the forecast samples, the parameters are in our framework simulated conditionally on both the data and all the forecast samples, except the forecast sample which is to be updated. The proposed framework is studied in detail for two parametric families: the linear-Gaussian model and the finite state-space hidden Markov model. For both cases, we present simulation examples and compare the results with existing ensemble-based filtering methods. The results of the proposed approach indicate a promising performance. In particular, the filter based on the linear-Gaussian model gives a more realistic representation of the uncertainty than the traditional EnKF, and the effect of not conditioning on the forecast sample which is to be updated when simulating the parameters is remarkable.


翻译:我们提议了一个用于更新先前的累进式组合的通用框架,这是基于共同值的过滤方法中一个重要但富有挑战性的部分。拟议框架基于对传统共同值 Kalman 过滤器(EnKF)的泛泛和完全巴伊西亚观点。在EnKF中,对共同值的更新以高斯假设为基础,而在我们的一般设置中,更新可能基于另一个参数组。此外,我们提议制定一个优化标准,并找到与该标准有关的最佳更新。框架完全为巴伊西亚国家,因为假设的预测模型的参数被视为随机变量。因此,在更新之前,为每个共同值成员模拟了参数矢量。与现有的完全巴伊西亚方法相比,所有预测样本都以有条件的参数模拟了更新。我们的框架对数据和所有预测样本都进行了有条件的模拟,但预测样本除外,而预测的样本除外。这个框架完全属于巴伊西亚国家,在更新之前,对假设模型的精确值模型和当前两个模型都进行了比较。为了比较,我们目前两种模型的精确度,拟议的框架是用于模拟的精确度的模型。

0
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
91+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
3+阅读 · 2019年10月31日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员