深度强化学习实验室
摘要
介绍
DRL在机器人控制[3]、[4]、玩[5]游戏等领域取得了巨大的成功。在医疗保健系统[6]、电网[7]、智能交通系统[8]、[9]等领域也具有广阔的应用前景。
在这些快速发展的同时,DRL也面临着挑战。在许多强化学习应用中,环境模型通常是未知的,只有收集到足够的交互经验,agent才能利用其对环境的知识来改进其性能。由于环境反馈的部分可观察性、稀疏性或延迟性以及高维观察和/或行动空间等问题,学习主体在没有利用任何先验知识的情况下寻找好的策略是非常耗时的。因此,迁移学习作为一种利用外部专业知识来加速学习过程的技术,在强化学习中成为一个重要的课题。
在监督学习(SL)领域[10]中,TL得到了广泛的研究。与SL场景相比,由于MDP环境中涉及的组件更多,RL中的TL(尤其是DRL中的TL)通常更复杂。MDP的组件(知识来自何处)可能与知识转移到何处不同。此外,专家知识也可以采取不同的形式,以不同的方式转移,特别是在深度神经网络的帮助下。随着DRL的快速发展,以前总结用于RL的TL方法的努力没有包括DRL的最新发展。注意到所有这些不同的角度和可能性,我们全面总结了在深度强化学习(TL in DRL)领域迁移学习的最新进展。我们将把它们分成不同的子主题,回顾每个主题的理论和应用,并找出它们之间的联系。
本综述的其余部分组织如下:在第2节中,我们介绍了强化学习的背景,关键的DRL算法,并带来了这篇综述中使用的重要术语。我们还简要介绍了与TL不同但又紧密相关的相关研究领域(第2.3节)。
在第3节中,我们采用多种视角来评价TL方法,提供了对这些方法进行分类的不同方法(第3.1节),讨论了迁移源和目标之间的潜在差异(第3.2节),并总结了评价TL有效性的常用指标(第3.3节)。
第4节详细说明了DRL领域中最新的TL方法。特别是,所讨论的内容主要是按照迁移知识的形式组织的,如成型的奖励(4.1节)、先前的演示(4.2节)、专家策略(4.3节),或者按照转移发生的方式组织的,如任务间映射(4.4节)、学习可转移表示(4.5节和4.6节)等。我们在第5节讨论了TL在DRL中的应用,并在第6节提供了一些值得研究的未来展望。
https://www.zhuanzhi.ai/paper/c191868037791b353ce96764d282debe
强化学习算法
蒙特卡罗方法,蒙特卡罗方法是一种模型自由的方法,这意味着目标策略是通过与环境相互作用的样本进行优化,而不需要了解MDP转换动力学。蒙特卡罗方法利用事件的样本,根据从该状态开始的事件估计每个状态的值。如果行为策略收集的片段样本与我们想要学习的目标策略不同,那么蒙特卡罗方法可以是非策略的。当通过目标策略收集样本时,它们也可以是on-policy。为了将行为策略的预期回报转换为目标策略[11]和[12],重要性抽样通常应用于非策略方法。
时间差分学习,简称TD-learning,是蒙特卡罗方法解决预测问题的一种替代方法。TD-learning背后的关键思想是通过bootstrapping来学习状态质量函数,这意味着它根据另一种估计来更新对该函数的估计。也可以将其推广到通过GPI方案来解决控制问题,从而使价值函数和策略都得到改进。TD-learning是使用最广泛的RL框架之一,因为它的简单性和普遍适用性。著名的基于策略的td学习算法包括SARSA[13]、Expected SARSA[14]、演员评论家[15]和它的变体A3C[16]。最流行的离策略td学习方法是Q-learning[17]及其由深度神经网络构建的变体,如DQN [18], Double-DQN[18]等。
策略梯度,与基于行动价值的方法相比,策略梯度是一种不同的机制。它直接学习一个参数化策略,并更新其参数来寻找最优策略。策略梯度法的一个经典例子是增强[21]。近年来,随着深度学习的快速发展,出现了各种不同的策略梯度方法,如信任区域策略优化(TRPO) [22], Actor-Critic,以及近端策略优化(PPO)[23]。策略梯度方法的一个优点是更适合具有连续状态和动作空间的任务。实例算法有确定性策略梯度(DPG)[24]及其扩展,深确定性策略梯度(DDPG)[25]。
评估TL在DRL的方法
通过回答以下几个关键问题,我们对不同的迁移学习方法进行了分类:
迁移了哪些知识?:从高层次来看,知识可以是任务(策略)的解决方案,从低层次来看,专家知识也可以采取不同的形式。例如一组专家经验、专家策略的操作概率分布,甚至估计源/目标MDP中状态和操作对质量的潜在函数。这些知识形式和粒度上的差异影响了不同TL方法的内部逻辑。转移的知识的质量,例如,它是来自4 oracle策略还是次优的人工演示,也影响我们设计TL方法的方式。
在哪发生迁移?:对于任何RL任务,MDP(或环境)都可以定义为M = (S,A,T,γ,T)。源MDP的M_s是先验知识的来源,目标MDP的M_t是知识转移的目标。有些TL方法适用于M_s和M_t相等的情况,而另一些则用于在不同的mpd之间迁移知识。M_s和M_t之间的差别因任务而异。例如,在一些观察为RGB像素的游戏任务中,M_s和M_t可以共享相同的A,但在观察空间上有所不同。对于基于潜力的奖励塑造等方法,这两个MDP的差异仅在于奖励分配:Rs != Rt。这些相似度差距决定了迁移学习的难度,以及有多少比例的知识可以从M_s迁移到M_t。
如何在源MPD和目标MPD之间迁移知识?:这个问题可以进一步阐述为:M_s与M_t的相似性假设是什么?从M_s到M_t的映射函数是预定义的还是自动生成的?该算法的哪个部分,例如策略集群,价值函数V,甚至转移动力学T(针对基于模型的RL任务),被转移的知识所改进?这种映射是在线下学习还是在线学习[41]。
迁移学习方法的目标是什么?:为了回答这个问题,我们首先列出了可用于衡量TL任务效率的几种方法,并回顾了不同的TL方法是如何旨在改进某些指标设置的。度量标准从初始/收敛/阶段性性能到用于达到特定阈值的时间不等。甚至用来定义累积奖励的目标函数也可能采取不同的形式。例如,将策略熵最大化作为要实现的子目标包括在本工作的目标函数中:[42]。
TL方法的适用性如何?:TL方法是策略不可知的,还是只适用于某些算法集,例如时间差异(TD)方法?这个问题又与迁移知识的形式和两个MDP之间的相似性有关。
目标MDP的可访问性?:与源任务的交互通常更便宜也更容易获得。但是,在一些情况下,Agent不能直接访问目标MDP,或者由于目标环境中的高采样成本,Agent只能与它进行非常有限的交互。这个场景的示例包括在模拟和真实环境中训练自动驾驶Agent,或者使用模拟图像输入训练机器人拾取物品,而不是在真实环境中学习。根据迁移学习所需的样本数量,我们还可以从以下角度对本次调查中提到的TL方法进行分类:(1)零样本迁移:学习因子直接适用于目标MDP,不需要任何样本;(2)小样本迁移:从目标MDP中只需要少量样本;(3)高效样本传输:大多数其他算法都属于这一类。与目标MDP中从零开始的训练相比,TL方法使目标agent具有更好的初始性能,并且(或)在转移知识的引导下收敛速度更快。
未来发展方向
模型可迁移性:TL的一个关键问题是,解决一项任务的知识是否或在多大程度上能够帮助解决另一项任务?回答这个问题有助于实现自动TL的许多阶段,包括源任务的选择、映射函数的设计、解纠缠表示、避免负迁移等。
我们提出了一个定义两个任务可转换性的理论框架,如图3所示:对于两个任务M_i和M_j,如果存在求解M_i的知识,则求解M_j的知识是可转移的:
评估可转移性:到目前为止,人们提出了不同的评估指标,从不同但互补的角度来评估TL方法,尽管没有单一的指标可以总结TL方法的有效性。设计一套通用的、新颖的度量,有利于DRL领域中TL的发展。除了这种流行的基准设置外,OpenAI gym3是专为评估RL方法而设计的一个统一的基准评估TL性能也值得努力。
与框架无关的迁移:大多数当代的TL方法只能适合某些RL框架。具体来说,一些TL方法只适用于为离散动作空间设计的RL算法(如DQfD),而另一些则适用于连续动作空间。此外,TL方法可能仅限于on-policy / off-policy设置。这些依赖于框架的TL方法的根本原因源于RL本身的无组织开发。我们期望在不久的将来,一个统一的RL社区将反过来加速这个领域中TL开发的标准化。
可解释性:深度学习和端到端系统使网络表示成为黑盒子,使解释和调试模型表示或决策变得困难。因此,在监督学习领域,人们开始努力定义和评估可解释方法[170][172]。可解释性的优点是流形,包括生成解纠缠表示,建立可解释模型,促进人机交互等。与此同时,RL领域的可解释TL方法,特别是具有可解释的表示或策略决策的可解释TL方法,也有利于许多应用领域,包括机器人学习和金融。此外,可解释性还有助于避免诸如自动驾驶或医疗保健决策等任务的灾难性决策。
尽管已经出现了针对RL任务的可解释TL方法的研究[173]、[174],但在RL领域中并没有可解释TL的定义,也没有一个系统的过程来评估不同TL方法的可解释性。我们相信,在不久的将来,RL可解释TL的标准化将是一个值得更多关注和努力的话题。
论文arxiv链接
https://arxiv.org/pdf/2009.07888.pdf
完
总结3: 《强化学习导论》代码/习题答案大全
总结6: 万字总结 || 强化学习之路
完
第81篇:【综述】多智能体强化学习算法理论研究
第80篇:强化学习《奖励函数设计》详细解读
第79篇: 诺亚方舟开源高性能强化学习库“刑天”
第77篇:深度强化学习工程师/研究员面试指南
第75篇:Distributional Soft Actor-Critic算法
第74篇:【中文公益公开课】RLChina2020
第73篇:Tensorflow2.0实现29种深度强化学习算法
第72篇:【万字长文】解决强化学习"稀疏奖励"
第71篇:【公开课】高级强化学习专题
第70篇:DeepMind发布"离线强化学习基准“
第66篇:分布式强化学习框架Acme,并行性加强
第65篇:DQN系列(3): 优先级经验回放(PER)
第64篇:UC Berkeley开源RAD来改进强化学习算法
第61篇:David Sliver 亲自讲解AlphaGo、Zero
第59篇:Agent57在所有经典Atari 游戏中吊打人类
第58篇:清华开源「天授」强化学习平台
第57篇:Google发布"强化学习"框架"SEED RL"
第53篇:TRPO/PPO提出者John Schulman谈科研
第52篇:《强化学习》可复现性和稳健性,如何解决?
第51篇:强化学习和最优控制的《十个关键点》
第50篇:微软全球深度强化学习开源项目开放申请
第49篇:DeepMind发布强化学习库 RLax
第48篇:AlphaStar过程详解笔记
第47篇:Exploration-Exploitation难题解决方法
第45篇:DQN系列(1): Double Q-learning
第44篇:科研界最全工具汇总
第42篇:深度强化学习入门到精通资料综述
第41篇:顶会征稿 || ICAPS2020: DeepRL
第40篇:实习生招聘 || 华为诺亚方舟实验室
第39篇:滴滴实习生|| 深度强化学习方向
第37篇:Call For Papers# IJCNN2020-DeepRL
第36篇:复现"深度强化学习"论文的经验之谈
第35篇:α-Rank算法之DeepMind及Huawei改进
第34篇:从Paper到Coding, DRL挑战34类游戏
第31篇:强化学习,路在何方?
第30篇:强化学习的三种范例
第29篇:框架ES-MAML:进化策略的元学习方法
第28篇:138页“策略优化”PPT--Pieter Abbeel
第27篇:迁移学习在强化学习中的应用及最新进展
第26篇:深入理解Hindsight Experience Replay
第25篇:10项【深度强化学习】赛事汇总
第24篇:DRL实验中到底需要多少个随机种子?
第23篇:142页"ICML会议"强化学习笔记
第22篇:通过深度强化学习实现通用量子控制
第21篇:《深度强化学习》面试题汇总
第20篇:《深度强化学习》招聘汇总(13家企业)
第19篇:解决反馈稀疏问题之HER原理与代码实现
第17篇:AI Paper | 几个实用工具推荐
第16篇:AI领域:如何做优秀研究并写高水平论文?
第14期论文: 2020-02-10(8篇)
第13期论文:2020-1-21(共7篇)
第12期论文:2020-1-10(Pieter Abbeel一篇,共6篇)
第11期论文:2019-12-19(3篇,一篇OpennAI)
第10期论文:2019-12-13(8篇)
第9期论文:2019-12-3(3篇)
第8期论文:2019-11-18(5篇)
第7期论文:2019-11-15(6篇)
第6期论文:2019-11-08(2篇)
第5期论文:2019-11-07(5篇,一篇DeepMind发表)
第4期论文:2019-11-05(4篇)
第3期论文:2019-11-04(6篇)
第2期论文:2019-11-03(3篇)
第1期论文:2019-11-02(5篇)