模仿学习试图通过利用专家行为来规避为训练主体设计适当的奖励功能的困难。在以Markov Decision Processes (MDP)建模的环境中,大多数现有的模仿算法都取决于在同一MDP中是否有专家演示,而在该MDP中要学习新的模仿策略。在本文中,我们研究了当专家和代理MDP存在差异时如何模拟任务的问题。这些跨领域的差异可能包括不同的动力学、观点或形态;我们提出了一个新的框架来学习这些领域的响应。重要的是,与之前的工作相比,我们使用只包含专家领域状态的未配对和未对齐轨迹来学习这种对应关系。我们利用状态空间和领域未知的潜在空间上的循环一致性约束来做到这一点。此外,我们通过一个归一化的位置估计函数加强状态的时间位置的一致性,以对齐两个领域的轨迹。一旦找到了这种对应关系,我们就可以直接将一个领域的演示转移到另一个领域,并将其用于模仿。在许多具有挑战性的领域进行的实验证明了我们的方法的有效性。
https://www.zhuanzhi.ai/paper/6e5467bc6d82cc1e9e3236f5e44e08a4