In a recent methodological paper, we showed how to learn chaotic dynamics along with the state trajectory from sequentially acquired observations, using local ensemble Kalman filters. Here, we more systematically investigate the possibility to use a local ensemble Kalman filter with either covariance localisation or local domains, in order to retrieve the state and a mix of key global and local parameters. Global parameters are meant to represent the surrogate dynamical core, for instance through a neural network, which is reminiscent of data-driven machine learning of dynamics, while the local parameters typically stand for the forcings of the model. Aiming at joint state and parameter estimation, a family of algorithms for covariance and local domain localisation is proposed. In particular, we show how to rigorously update global parameters using a local domain ensemble Kalman filter (EnKF) such as the local ensemble transform Kalman filter (LETKF), an inherently local method. The approach is tested with success on the 40-variable Lorenz model using several of the local EnKF flavors. A two-dimensional illustration based on a multi-layer Lorenz model is finally provided. It uses radiance-like non-local observations. It features both local domains and covariance localisation in order to learn the chaotic dynamics and the local forcings. This paper more generally addresses the key question of online estimation of both global and local model parameters.


翻译:在最近一份方法学文件中,我们展示了如何从按顺序获得的观测中学习混乱动态以及州轨轨迹, 使用本地混合的 Kalman 过滤器。 在这里, 我们更系统地调查使用本地共变本地化或本地域, 以便检索州和关键全球和地方参数组合。 全球参数意在通过神经网络来代表代理国的动态核心, 例如通过神经网络, 这是数据驱动机器对动态的学习的记忆, 而本地参数通常代表模型的强制力。 我们的目标是联合进行州和参数估算, 提议对共变和本地域本地域本地化进行一系列的算法。 特别是, 我们展示了如何使用本地域共变换Kalman过滤器( EnKF) 等本地共变换Kalman过滤器(LETKF) 来严格更新全球参数。 这种方法在40种可变本地参数模型上的成功估算了Lorenz 模型, 并使用本地的 Enk Fcries 。 一种基于多域域域域域域域级核心的双维的图像演示, 学习了本地级系统。 和本地级的系统化系统。 它的双维的演示, 和本地级的系统化, 最后提供了多域级的系统。 它的系统, 和本地级的系统化的系统化的系统化的系统化, 。

0
下载
关闭预览

相关内容

卡尔曼滤波是一种高效率的递归滤波器(自回归滤波器),它能够从一系列的不完全及包含噪声的测量中,估计动态系统的状态。
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2022年2月16日
Deep Randomized Ensembles for Metric Learning
Arxiv
5+阅读 · 2018年9月4日
Arxiv
17+阅读 · 2018年4月2日
VIP会员
相关VIP内容
相关资讯
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员