Determining the noise parameters of a Kalman Filter (KF) has been studied for decades. A huge body of research focuses on the task of estimation of the noise under various conditions, since precise noise estimation is considered equivalent to minimization of the filtering errors. However, we show that even a small violation of the KF assumptions can significantly modify the effective noise, breaking the equivalence between the tasks and making noise estimation an inferior strategy. We show that such violations are very common, and are often not trivial to handle or even notice. Consequentially, we argue that a robust solution is needed - rather than choosing a dedicated model per problem. To that end, we apply gradient-based optimization to the filtering errors directly, with relation to a simple and efficient parameterization of the symmetric and positive-definite parameters of KF. In radar tracking and video tracking, we show that the optimization improves both the accuracy of KF and its robustness to design decisions. In addition, we demonstrate how an optimized neural network model can seem to reduce the errors significantly compared to a KF - and how this reduction vanishes once the KF is optimized similarly. This indicates how complicated models can be wrongly identified as superior to KF, while in fact they were merely more optimized.


翻译:数十年来一直在研究如何确定卡尔曼过滤器(KF)的噪声参数。 大量研究的重点放在在各种条件下估计噪音的任务上, 因为精确的噪声估计被认为相当于过滤错误的最小化。 然而, 我们显示, 即使是小的违反KF假设也会大大改变有效的噪音, 打破任务之间的等同, 并作出低级战略的噪声估计。 我们显示, 这种违规现象非常常见, 并且往往不是微不足道的处理或甚至通知。 因此, 我们争辩说, 需要一种强有力的解决方案, 而不是选择每个问题的专用模型。 为此, 我们直接对过滤错误采用基于梯度的优化, 与KF的对称和正定参数的简单有效的参数化有关。 在雷达跟踪和视频跟踪中, 我们显示, 优化既能提高KF的准确性, 也能提高它设计决定的稳健性。 此外, 我们证明, 优化的神经网络模型与 KF 相比, 如何明显减少错误? 一旦KF 优化后, 如何将这种减少这种模型转化为最优化的模型, 却更优化。

0
下载
关闭预览

相关内容

【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
已删除
将门创投
5+阅读 · 2019年5月5日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Arxiv
0+阅读 · 2021年7月8日
Arxiv
5+阅读 · 2018年10月4日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
已删除
将门创投
5+阅读 · 2019年5月5日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Top
微信扫码咨询专知VIP会员