因子图为解决机器人感知和控制中遇到的大规模非线性推理问题提供了一个灵活而强大的框架。通常,这些方法依赖于手工制作的模型,这些模型可以有效地进行优化。然而,机器人经常通过复杂的、高维的传感器观察来感知世界。例如,假设一个机器人操纵一个物体,并接收高维触觉观察,从这些观察中它必须推断潜在物体的姿势。我们如何结合机器学习从观察中提取显著信息和图优化来有效融合这些信息?

在本论文中,我们解决了三个主要的挑战:(1)我们如何从循环中的优化器的数据中学习观察模型?我们证明学习观察模型可以被看作是塑造能量函数,使图优化器,甚至不可微的图优化器,优化。(2)我们如何在来自真实世界的物理或几何图形的图形优化器中强加硬约束?我们将增量高斯-牛顿求解器扩展到一个更广泛的原始对偶框架,以在线方式高效地求解约束。(3)最后,我们研究了从触觉图像观察中提取显著信息的不同的学习特征表征。

我们在机器人操作的触觉感知的实际应用中评估了这些方法,在跨越平面推和手操作任务的数百个试验中,我们证明了可靠的对象跟踪。本论文在因子图推理、基于能量的学习和约束优化之间建立了新的联系,为这些主题交叉的新研究问题开辟了道路。

成为VIP会员查看完整内容
23

相关内容

专知会员服务
14+阅读 · 2021年9月11日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
123+阅读 · 2020年8月27日
直播预告 | 第六届深度强化学习理论与应用研讨会
中国科学院自动化研究所
1+阅读 · 2022年1月12日
层级强化学习概念简介
CreateAMind
14+阅读 · 2019年6月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
21+阅读 · 2020年10月11日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
VIP会员
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员