We consider the problem of high-dimensional filtering of state-space models (SSMs) at discrete times. This problem is particularly challenging as analytical solutions are typically not available and many numerical approximation methods can have a cost that scales exponentially with the dimension of the hidden state. Inspired by lag-approximation methods for the smoothing problem, we introduce a lagged approximation of the smoothing distribution that is necessarily biased. For certain classes of SSMs, particularly those that forget the initial condition exponentially fast in time, the bias of our approximation is shown to be uniformly controlled in the dimension and exponentially small in time. We develop a sequential Monte Carlo (SMC) method to recursively estimate expectations with respect to our biased filtering distributions. Moreover, we prove for a class of non-i.i.d.~SSMs that as the dimension $d\rightarrow\infty$ the cost to achieve a stable mean square error in estimation, for classes of expectations, is of $\mathcal{O}(Nd^2)$ per-unit time, where $N$ is the number of simulated samples in the SMC algorithm. Our methodology is implemented on several challenging high-dimensional examples including the conservative shallow-water model.


翻译:这个问题特别具有挑战性,因为分析解决方案通常不具备,而且许多数字近似方法的成本可能随隐藏状态的维度而指数化地计算出。由于对平滑问题采用滞后-接近法方法,我们引入了平滑分布偏差的滞后近似值。对于某些类特殊群体,特别是那些在时间上迅速忘记初始状态的人,我们近似的偏差在规模上被统一控制,在时间上被指数性地缩小。我们开发了一种连续的蒙特卡洛(SMC)方法,用以根据偏差过滤分布反复估计预期值。此外,我们还证明了一种非i.i.d. ~SSMSMs,作为平滑分布的维度,我们采用了一定偏差的偏差。对于预期类别来说,在估算中实现稳定的中位错误的成本是美元/mathcal{O}(Nd ⁇ 2)美元,每单元的偏差被统一控制在尺寸上,而时间则成倍小。我们开发了一种顺序的蒙特卡洛(SMC)方法,用以根据我们偏差的过滤法反复的样本数,包括高度的浅度算法。我们采用的方法是若干高度的模型。

0
下载
关闭预览

相关内容

SMC:IEEE International Conference on Systems,Man, and Cybernetics Explanation:IEEE系统、人与控制论国际会议。 Publisher:IEEE。 SIT: https://dblp.uni-trier.de/db/conf/smc/
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【2020新书】概率机器学习,附212页pdf与slides
专知会员服务
108+阅读 · 2020年11月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2021年11月24日
Learning to Importance Sample in Primary Sample Space
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员