We address the problem of learning observation models end-to-end for estimation. Robots operating in partially observable environments must infer latent states from multiple sensory inputs using observation models that capture the joint distribution between latent states and observations. This inference problem can be formulated as an objective over a graph that optimizes for the most likely sequence of states using all previous measurements. Prior work uses observation models that are either known a-priori or trained on surrogate losses independent of the graph optimizer. In this paper, we propose a method to directly optimize end-to-end tracking performance by learning observation models with the graph optimizer in the loop. This direct approach may appear, however, to require the inference algorithm to be fully differentiable, which many state-of-the-art graph optimizers are not. Our key insight is to instead formulate the problem as that of energy-based learning. We propose a novel approach, LEO, for learning observation models end-to-end with non-differentiable graph optimizers. LEO alternates between sampling trajectories from the graph posterior and updating the model to match these samples to ground truth trajectories. We propose a way to generate such samples efficiently using incremental Gauss-Newton solvers. We compare LEO against baselines on datasets drawn from two distinct tasks: navigation and real-world planar pushing. We show that LEO is able to learn complex observation models with lower errors and fewer samples. Supplementary video: https://youtu.be/qWcH9CBXs5c


翻译:我们处理的是学习观测模型的终端到终端估算问题。在部分可观测环境中运行的机器人必须使用观测模型从多个感官输入中推断潜在状态,这些观察模型可以捕捉潜伏状态和观测之间的联合分布。这种推论问题可以作为图表的一个目标,该图表可以优化使用所有先前测量方法最可能的国家序列。先前的工作使用已知的优先或受过替代损失培训的替代模型,独立于图形优化器。在本文中,我们建议一种方法,通过学习图形后端优化的观测模型,直接优化端对端跟踪性能。然而,这种直接方法可能似乎需要完全不同的推断算法,而许多最先进的图形优化者则不是。我们的主要洞察力是将问题发展成基于能源的学习模式。我们建议一种新颖的方法,即低地(LEO),用非易变的图形优化优化的图形优化器学习观测模型的端端端对端跟踪5 低地(LEW) 。我们建议一种从图形后端测测测图的轨方法,并更新模型以匹配这些样本到地面的低位观测模型。我们建议一种方法,从真实的渐变的基模型,我们用一种方法,从真实的测算方法,从真实的基点到比数据。我们建议了不同的数据。我们用一种方法,用一种方法,从真实的测算方法,从真实的基点/测算的方法,从真实的基点计划。

0
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
341+阅读 · 2020年1月27日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月19日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2019年5月31日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月19日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员