Embodied agents, such as robots and virtual characters, must continuously select actions to execute tasks effectively, solving complex sequential decision-making problems. Given the difficulty of designing such controllers manually, learning-based approaches have emerged as promising alternatives, most notably Deep Reinforcement Learning (DRL) and Deep Imitation Learning (DIL). DRL leverages reward signals to optimize behavior, while DIL uses expert demonstrations to guide learning. This document introduces DRL and DIL in the context of embodied agents, adopting a concise, depth-first approach to the literature. It is self-contained, presenting all necessary mathematical and machine learning concepts as they are needed. It is not intended as a survey of the field; rather, it focuses on a small set of foundational algorithms and techniques, prioritizing in-depth understanding over broad coverage. The material ranges from Markov Decision Processes to REINFORCE and Proximal Policy Optimization (PPO) for DRL, and from Behavioral Cloning to Dataset Aggregation (DAgger) and Generative Adversarial Imitation Learning (GAIL) for DIL.


翻译:具身智能体(如机器人和虚拟角色)必须持续选择动作以有效执行任务,解决复杂的序列决策问题。鉴于手动设计此类控制器的困难,基于学习的方法已成为有前景的替代方案,其中最显著的是深度强化学习(DRL)和深度模仿学习(DIL)。DRL利用奖励信号优化行为,而DIL则使用专家示范指导学习。本文在具身智能体背景下介绍DRL与DIL,采用精炼的深度优先方式梳理文献。内容自成体系,按需介绍所有必要的数学与机器学习概念。本文并非领域综述,而是聚焦于一小部分基础算法与技术,强调深度理解而非广泛覆盖。内容涵盖从马尔可夫决策过程到DRL的REINFORCE与近端策略优化(PPO),以及从行为克隆到DIL的数据集聚合(DAgger)与生成对抗模仿学习(GAIL)。

0
下载
关闭预览

相关内容

模仿学习是学习尝试模仿专家行为从而获取最佳性能的一系列任务。目前主流方法包括监督式模仿学习、随机混合迭代学习和数据聚合模拟学习等方法。模仿学习(Imitation Learning)背后的原理是是通过隐含地给学习器关于这个世界的先验信息,比如执行、学习人类行为。在模仿学习任务中,智能体(agent)为了学习到策略从而尽可能像人类专家那样执行一种行为,它会寻找一种最佳的方式来使用由该专家示范的训练集(输入-输出对)。当智能体学习人类行为时,虽然我们也需要使用模仿学习,但实时的行为模拟成本会非常高。与之相反,吴恩达提出的学徒学习(Apprenticeship learning)执行的是存粹的贪婪/利用(exploitative)策略,并使用强化学习方法遍历所有的(状态和行为)轨迹(trajectories)来学习近优化策略。它需要极难的计略(maneuvers),而且几乎不可能从未观察到的状态还原。模仿学习能够处理这些未探索到的状态,所以可为自动驾驶这样的许多任务提供更可靠的通用框架。
深度强化学习与模仿学习导论
专知会员服务
22+阅读 · 12月10日
深度研究系统的强化学习基础:综述
专知会员服务
29+阅读 · 9月10日
【牛津博士论文】零样本强化学习综述
专知会员服务
30+阅读 · 8月25日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
多模态深度学习综述,18页pdf
专知
50+阅读 · 2020年3月29日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关VIP内容
深度强化学习与模仿学习导论
专知会员服务
22+阅读 · 12月10日
深度研究系统的强化学习基础:综述
专知会员服务
29+阅读 · 9月10日
【牛津博士论文】零样本强化学习综述
专知会员服务
30+阅读 · 8月25日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员