模仿学习试图通过利用专家行为来规避为训练主体设计适当的奖励功能的困难。在以Markov Decision Processes (MDP)建模的环境中,大多数现有的模仿算法都取决于在同一MDP中是否有专家演示,而在该MDP中要学习新的模仿策略。在本文中,我们研究了当专家和代理MDP存在差异时如何模拟任务的问题。这些跨领域的差异可能包括不同的动力学、观点或形态;我们提出了一个新的框架来学习这些领域的响应。重要的是,与之前的工作相比,我们使用只包含专家领域状态的未配对和未对齐轨迹来学习这种对应关系。我们利用状态空间和领域未知的潜在空间上的循环一致性约束来做到这一点。此外,我们通过一个归一化的位置估计函数加强状态的时间位置的一致性,以对齐两个领域的轨迹。一旦找到了这种对应关系,我们就可以直接将一个领域的演示转移到另一个领域,并将其用于模仿。在许多具有挑战性的领域进行的实验证明了我们的方法的有效性。

https://www.zhuanzhi.ai/paper/6e5467bc6d82cc1e9e3236f5e44e08a4

成为VIP会员查看完整内容
19

相关内容

模仿学习是学习尝试模仿专家行为从而获取最佳性能的一系列任务。目前主流方法包括监督式模仿学习、随机混合迭代学习和数据聚合模拟学习等方法。模仿学习(Imitation Learning)背后的原理是是通过隐含地给学习器关于这个世界的先验信息,比如执行、学习人类行为。在模仿学习任务中,智能体(agent)为了学习到策略从而尽可能像人类专家那样执行一种行为,它会寻找一种最佳的方式来使用由该专家示范的训练集(输入-输出对)。当智能体学习人类行为时,虽然我们也需要使用模仿学习,但实时的行为模拟成本会非常高。与之相反,吴恩达提出的学徒学习(Apprenticeship learning)执行的是存粹的贪婪/利用(exploitative)策略,并使用强化学习方法遍历所有的(状态和行为)轨迹(trajectories)来学习近优化策略。它需要极难的计略(maneuvers),而且几乎不可能从未观察到的状态还原。模仿学习能够处理这些未探索到的状态,所以可为自动驾驶这样的许多任务提供更可靠的通用框架。
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
22+阅读 · 2021年9月5日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
9+阅读 · 2021年7月28日
专知会员服务
23+阅读 · 2021年7月10日
专知会员服务
24+阅读 · 2021年6月15日
专知会员服务
36+阅读 · 2021年5月29日
专知会员服务
21+阅读 · 2021年5月27日
【ICML2021】来自观察的跨域模仿
专知会员服务
17+阅读 · 2021年5月25日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
在稀疏和欠明确奖励中学习泛化
谷歌开发者
6+阅读 · 2019年3月20日
Frustratingly Simple Few-Shot Object Detection
Arxiv
3+阅读 · 2020年3月16日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
4+阅读 · 2020年1月17日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
22+阅读 · 2021年9月5日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
9+阅读 · 2021年7月28日
专知会员服务
23+阅读 · 2021年7月10日
专知会员服务
24+阅读 · 2021年6月15日
专知会员服务
36+阅读 · 2021年5月29日
专知会员服务
21+阅读 · 2021年5月27日
【ICML2021】来自观察的跨域模仿
专知会员服务
17+阅读 · 2021年5月25日
微信扫码咨询专知VIP会员