MSU最新《深度强化学习中的迁移学习》2020综述论文,22页pdf

2020 年 9 月 20 日 深度强化学习实验室

深度强化学习实验室

转载自公众号“专 知(Quan_Zhuanzhi)”
论文原文:https://arxiv.org/pdf/2009.07888.pdf
编辑:DeepRL





摘要



本文综述了迁移学习在强化学习问题设置中的应用。RL已经成为序列决策问题的关键的解决方案。随着RL在各个领域的快速发展。包括机器人技术和游戏,迁移学习是通过利用和迁移外部专业知识来促进学习过程来帮助RL的一项重要技术。在这篇综述中,我们回顾了在RL领域中迁移学习的中心问题,提供了一个最先进技术的系统分类。我们分析他们的目标,方法,应用,以及在RL框架下这些迁移学习技术将是可接近的。本文从RL的角度探讨了迁移学习与其他相关话题的关系,并探讨了RL迁移学习的潜在挑战和未来发展方向。

关键词 :迁移学习,强化学习,综述,机器学习



介绍



强化学习(RL)被认为是解决连续决策任务的一种有效方法,在这种方法中,学习主体通过与环境相互作用,通过[1]来提高其性能。源于控制论并在计算机科学领域蓬勃发展的RL已被广泛应用于学术界和工业界,以解决以前难以解决的任务。此外,随着深度学习的快速发展,应用深度学习服务于学习任务的集成框架在近年来得到了广泛的研究和发展。DL和RL的组合结构称为深度强化学习[2](Deep Reinforcement Learning, DRL)。



DRL在机器人控制[3]、[4]、玩[5]游戏等领域取得了巨大的成功。在医疗保健系统[6]、电网[7]、智能交通系统[8]、[9]等领域也具有广阔的应用前景。


在这些快速发展的同时,DRL也面临着挑战。在许多强化学习应用中,环境模型通常是未知的,只有收集到足够的交互经验,agent才能利用其对环境的知识来改进其性能。由于环境反馈的部分可观察性、稀疏性或延迟性以及高维观察和/或行动空间等问题,学习主体在没有利用任何先验知识的情况下寻找好的策略是非常耗时的。因此,迁移学习作为一种利用外部专业知识来加速学习过程的技术,在强化学习中成为一个重要的课题。


在监督学习(SL)领域[10]中,TL得到了广泛的研究。与SL场景相比,由于MDP环境中涉及的组件更多,RL中的TL(尤其是DRL中的TL)通常更复杂。MDP的组件(知识来自何处)可能与知识转移到何处不同。此外,专家知识也可以采取不同的形式,以不同的方式转移,特别是在深度神经网络的帮助下。随着DRL的快速发展,以前总结用于RL的TL方法的努力没有包括DRL的最新发展。注意到所有这些不同的角度和可能性,我们全面总结了在深度强化学习(TL in DRL)领域迁移学习的最新进展。我们将把它们分成不同的子主题,回顾每个主题的理论和应用,并找出它们之间的联系。


本综述的其余部分组织如下:在第2节中,我们介绍了强化学习的背景,关键的DRL算法,并带来了这篇综述中使用的重要术语。我们还简要介绍了与TL不同但又紧密相关的相关研究领域(第2.3节)。


在第3节中,我们采用多种视角来评价TL方法,提供了对这些方法进行分类的不同方法(第3.1节),讨论了迁移源和目标之间的潜在差异(第3.2节),并总结了评价TL有效性的常用指标(第3.3节)。


第4节详细说明了DRL领域中最新的TL方法。特别是,所讨论的内容主要是按照迁移知识的形式组织的,如成型的奖励(4.1节)、先前的演示(4.2节)、专家策略(4.3节),或者按照转移发生的方式组织的,如任务间映射(4.4节)、学习可转移表示(4.5节和4.6节)等。我们在第5节讨论了TL在DRL中的应用,并在第6节提供了一些值得研究的未来展望。


https://www.zhuanzhi.ai/paper/c191868037791b353ce96764d282debe




强化学习算法



  • 蒙特卡罗方法,蒙特卡罗方法是一种模型自由的方法,这意味着目标策略是通过与环境相互作用的样本进行优化,而不需要了解MDP转换动力学。蒙特卡罗方法利用事件的样本,根据从该状态开始的事件估计每个状态的值。如果行为策略收集的片段样本与我们想要学习的目标策略不同,那么蒙特卡罗方法可以是非策略的。当通过目标策略收集样本时,它们也可以是on-policy。为了将行为策略的预期回报转换为目标策略[11]和[12],重要性抽样通常应用于非策略方法。

  • 时间差分学习,简称TD-learning,是蒙特卡罗方法解决预测问题的一种替代方法。TD-learning背后的关键思想是通过bootstrapping来学习状态质量函数,这意味着它根据另一种估计来更新对该函数的估计。也可以将其推广到通过GPI方案来解决控制问题,从而使价值函数和策略都得到改进。TD-learning是使用最广泛的RL框架之一,因为它的简单性和普遍适用性。著名的基于策略的td学习算法包括SARSA[13]、Expected SARSA[14]、演员评论家[15]和它的变体A3C[16]。最流行的离策略td学习方法是Q-learning[17]及其由深度神经网络构建的变体,如DQN [18], Double-DQN[18]等。

  • 策略梯度,与基于行动价值的方法相比,策略梯度是一种不同的机制。它直接学习一个参数化策略,并更新其参数来寻找最优策略。策略梯度法的一个经典例子是增强[21]。近年来,随着深度学习的快速发展,出现了各种不同的策略梯度方法,如信任区域策略优化(TRPO) [22], Actor-Critic,以及近端策略优化(PPO)[23]。策略梯度方法的一个优点是更适合具有连续状态和动作空间的任务。实例算法有确定性策略梯度(DPG)[24]及其扩展,深确定性策略梯度(DDPG)[25]。




评估TL在DRL的方法



通过回答以下几个关键问题,我们对不同的迁移学习方法进行了分类:

  • 迁移了哪些知识?:从高层次来看,知识可以是任务(策略)的解决方案,从低层次来看,专家知识也可以采取不同的形式。例如一组专家经验、专家策略的操作概率分布,甚至估计源/目标MDP中状态和操作对质量的潜在函数。这些知识形式和粒度上的差异影响了不同TL方法的内部逻辑。转移的知识的质量,例如,它是来自4 oracle策略还是次优的人工演示,也影响我们设计TL方法的方式。

  • 在哪发生迁移?:对于任何RL任务,MDP(或环境)都可以定义为M = (S,A,T,γ,T)。MDP的M_s是先验知识的来源,目标MDP的M_t是知识转移的目标。有些TL方法适用于M_s和M_t相等的情况,而另一些则用于在不同的mpd之间迁移知识。M_s和M_t之间的差别因任务而异。例如,在一些观察为RGB像素的游戏任务中,M_s和M_t可以共享相同的A,但在观察空间上有所不同。对于基于潜力的奖励塑造等方法,这两个MDP的差异仅在于奖励分配:Rs != Rt。这些相似度差距决定了迁移学习的难度,以及有多少比例的知识可以从M_s迁移到M_t。

  • 如何在源MPD和目标MPD之间迁移知识?:这个问题可以进一步阐述为:M_s与M_t的相似性假设是什么?从M_s到M_t的映射函数是预定义的还是自动生成的?该算法的哪个部分,例如策略集群,价值函数V,甚至转移动力学T(针对基于模型的RL任务),被转移的知识所改进?这种映射是在线下学习还是在线学习[41]。

  • 迁移学习方法的目标是什么?:为了回答这个问题,我们首先列出了可用于衡量TL任务效率的几种方法,并回顾了不同的TL方法是如何旨在改进某些指标设置的。度量标准从初始/收敛/阶段性性能到用于达到特定阈值的时间不等。甚至用来定义累积奖励的目标函数也可能采取不同的形式。例如,将策略熵最大化作为要实现的子目标包括在本工作的目标函数中:[42]。

  • TL方法的适用性如何?:TL方法是策略不可知的,还是只适用于某些算法集,例如时间差异(TD)方法?这个问题又与迁移知识的形式和两个MDP之间的相似性有关。

  • 目标MDP的可访问性?:与源任务的交互通常更便宜也更容易获得。但是,在一些情况下,Agent不能直接访问目标MDP,或者由于目标环境中的高采样成本,Agent只能与它进行非常有限的交互。这个场景的示例包括在模拟和真实环境中训练自动驾驶Agent,或者使用模拟图像输入训练机器人拾取物品,而不是在真实环境中学习。根据迁移学习所需的样本数量,我们还可以从以下角度对本次调查中提到的TL方法进行分类:(1)零样本迁移:学习因子直接适用于目标MDP,不需要任何样本;(2)小样本迁移:从目标MDP中只需要少量样本;(3)高效样本传输:大多数其他算法都属于这一类。与目标MDP中从零开始的训练相比,TL方法使目标agent具有更好的初始性能,并且(或)在转移知识的引导下收敛速度更快。




未来发展方向


模型可迁移性:TL的一个关键问题是,解决一项任务的知识是否或在多大程度上能够帮助解决另一项任务?回答这个问题有助于实现自动TL的许多阶段,包括源任务的选择、映射函数的设计、解纠缠表示、避免负迁移等。


我们提出了一个定义两个任务可转换性的理论框架,如图3所示:对于两个任务M_i和M_j,如果存在求解M_i的知识,则求解M_j的知识是可转移的:

评估可转移性:到目前为止,人们提出了不同的评估指标,从不同但互补的角度来评估TL方法,尽管没有单一的指标可以总结TL方法的有效性。设计一套通用的、新颖的度量,有利于DRL领域中TL的发展。除了这种流行的基准设置外,OpenAI gym3是专为评估RL方法而设计的一个统一的基准评估TL性能也值得努力。


与框架无关的迁移:大多数当代的TL方法只能适合某些RL框架。具体来说,一些TL方法只适用于为离散动作空间设计的RL算法(如DQfD),而另一些则适用于连续动作空间。此外,TL方法可能仅限于on-policy / off-policy设置。这些依赖于框架的TL方法的根本原因源于RL本身的无组织开发。我们期望在不久的将来,一个统一的RL社区将反过来加速这个领域中TL开发的标准化。


可解释性:深度学习和端到端系统使网络表示成为黑盒子,使解释和调试模型表示或决策变得困难。因此,在监督学习领域,人们开始努力定义和评估可解释方法[170][172]。可解释性的优点是流形,包括生成解纠缠表示,建立可解释模型,促进人机交互等。与此同时,RL领域的可解释TL方法,特别是具有可解释的表示或策略决策的可解释TL方法,也有利于许多应用领域,包括机器人学习和金融。此外,可解释性还有助于避免诸如自动驾驶或医疗保健决策等任务的灾难性决策。

尽管已经出现了针对RL任务的可解释TL方法的研究[173]、[174],但在RL领域中并没有可解释TL的定义,也没有一个系统的过程来评估不同TL方法的可解释性。我们相信,在不久的将来,RL可解释TL的标准化将是一个值得更多关注和努力的话题。


论文arxiv链接

https://arxiv.org/pdf/2009.07888.pdf



总结1:周志华 || AI领域如何做研究-写高水平论文

总结2:全网首发最全深度强化学习资料(永更)

总结3:  《强化学习导论》代码/习题答案大全

总结4:30+个必知的《人工智能》会议清单

总结52019年-57篇深度强化学习文章汇总

总结6:  万字总结 || 强化学习之路

总结7:万字总结 || 多智能体强化学习(MARL)大总结

总结8:经验 || 深度强化学习理论、模型及编码调参技巧


第81篇:【综述】多智能体强化学习算法理论研究

第80篇:强化学习《奖励函数设计》详细解读

第79篇: 诺亚方舟开源高性能强化学习库“刑天”

第78篇:强化学习如何tradeoff"探索"和"利用"?

第77篇:深度强化学习工程师/研究员面试指南

第76篇:DAI2020 自动驾驶挑战赛(强化学习)

第75篇:Distributional Soft Actor-Critic算法

第74篇:【中文公益公开课】RLChina2020

第73篇:Tensorflow2.0实现29种深度强化学习算法

第72篇:【万字长文】解决强化学习"稀疏奖励"

第71篇:【公开课】高级强化学习专题

第70篇:DeepMind发布"离线强化学习基准“

第69篇:深度强化学习【Seaborn】绘图方法

第68篇:【DeepMind】多智能体学习231页PPT

第67篇:126篇ICML2020会议"强化学习"论文汇总

第66篇:分布式强化学习框架Acme,并行性加强

第65篇:DQN系列(3): 优先级经验回放(PER)

第64篇:UC Berkeley开源RAD来改进强化学习算法

第63篇:华为诺亚方舟招聘 || 强化学习研究实习生

第62篇:ICLR2020- 106篇深度强化学习顶会论文

第61篇:David Sliver 亲自讲解AlphaGo、Zero

第60篇:滴滴主办强化学习挑战赛:KDD Cup-2020

第59篇:Agent57在所有经典Atari 游戏中吊打人类

第58篇:清华开源「天授」强化学习平台

第57篇:Google发布"强化学习"框架"SEED RL"

第56篇:RL教父Sutton实现强人工智能算法的难易

第55篇:内推 ||  阿里2020年强化学习实习生招聘

第54篇:顶会 || 65篇"IJCAI"深度强化学习论文

第53篇:TRPO/PPO提出者John Schulman谈科研

第52篇:《强化学习》可复现性和稳健性,如何解决?

第51篇:强化学习和最优控制的《十个关键点》

第50篇:微软全球深度强化学习开源项目开放申请

第49篇:DeepMind发布强化学习库 RLax

第48篇:AlphaStar过程详解笔记

第47篇:Exploration-Exploitation难题解决方法

第46篇:DQN系列(2): Double DQN 算法

第45篇:DQN系列(1): Double Q-learning

第44篇:科研界最全工具汇总

第43篇:起死回生|| 如何rebuttal顶会学术论文?

第42篇:深度强化学习入门到精通资料综述

第41篇:顶会征稿 ||  ICAPS2020: DeepRL

第40篇:实习生招聘 || 华为诺亚方舟实验室

第39篇:滴滴实习生|| 深度强化学习方向

第38篇:AAAI-2020 || 52篇深度强化学习论文

第37篇:Call For Papers# IJCNN2020-DeepRL

第36篇:复现"深度强化学习"论文的经验之谈

第35篇:α-Rank算法之DeepMind及Huawei改进

第34篇:从Paper到Coding, DRL挑战34类游戏

第33篇:DeepMind-102页深度强化学习PPT

第32篇:腾讯AI Lab强化学习招聘(正式/实习)

第31篇:强化学习,路在何方?

第30篇:强化学习的三种范例

第29篇:框架ES-MAML:进化策略的元学习方法

第28篇:138页“策略优化”PPT--Pieter Abbeel

第27篇:迁移学习在强化学习中的应用及最新进展

第26篇:深入理解Hindsight Experience Replay

第25篇:10项【深度强化学习】赛事汇总

第24篇:DRL实验中到底需要多少个随机种子?

第23篇:142页"ICML会议"强化学习笔记

第22篇:通过深度强化学习实现通用量子控制

第21篇:《深度强化学习》面试题汇总

第20篇:《深度强化学习》招聘汇总(13家企业)

第19篇:解决反馈稀疏问题之HER原理与代码实现

第18篇:"DeepRacer" —顶级深度强化学习挑战赛

第17篇:AI Paper | 几个实用工具推荐

第16篇:AI领域:如何做优秀研究并写高水平论文?

第15篇: DeepMind开源三大新框架!
第14篇: 61篇NIPS2019DeepRL论文及部分解读
第13篇: OpenSpiel(28种DRL环境+24种DRL算法)
第12篇: 模块化和快速原型设计Huskarl DRL框架
第11篇: DRL在Unity自行车环境中配置与实践
第10篇: 解读72篇DeepMind深度强化学习论文
第9篇: 《AutoML》:一份自动化调参的指导
第8篇: ReinforceJS库(动态展示DP、TD、DQN)
第7篇: 10年NIPS顶会DRL论文(100多篇)汇总
第6篇: ICML2019-深度强化学习文章汇总
第5篇: 深度强化学习在阿里巴巴的技术演进
第4篇: 深度强化学习十大原则
第3篇: “超参数”自动化设置方法---DeepHyper
第2篇: 深度强化学习的加速方法
第1篇: 深入浅出解读"多巴胺(Dopamine)论文"、环境配置和实例分析


第14期论文:  2020-02-10(8篇)

第13期论文:2020-1-21(共7篇)

第12期论文:2020-1-10(Pieter Abbeel一篇,共6篇)

第11期论文:2019-12-19(3篇,一篇OpennAI)

第10期论文:2019-12-13(8篇)

第9期论文:2019-12-3(3篇)

第8期论文:2019-11-18(5篇)

第7期论文:2019-11-15(6篇)

第6期论文:2019-11-08(2篇)

第5期论文:2019-11-07(5篇,一篇DeepMind发表)

第4期论文:2019-11-05(4篇)

第3期论文:2019-11-04(6篇)

第2期论文:2019-11-03(3篇)

第1期论文:2019-11-02(5篇)




登录查看更多
0

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
最新《对比监督学习》综述论文,20页pdf
专知会员服务
82+阅读 · 2020年11月5日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
最新《深度半监督学习》综述论文,43页pdf
专知会员服务
153+阅读 · 2020年6月12日
最新《智能交通系统的深度强化学习》综述论文,22页pdf
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
172+阅读 · 2020年2月8日
专知会员服务
206+阅读 · 2019年8月30日
【综述】迁移自适应学习十年进展
专知
41+阅读 · 2019年11月26日
迁移自适应学习最新综述,附21页论文下载
学界 | 综述论文:四大类深度迁移学习
机器之心
16+阅读 · 2018年9月15日
深度强化学习入门,这一篇就够了!
机器学习算法与Python学习
27+阅读 · 2018年8月17日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
推荐 | 一文看懂迁移学习:从基础概念到技术研究!
全球人工智能
4+阅读 · 2017年9月24日
Arxiv
0+阅读 · 2020年11月30日
Arxiv
1+阅读 · 2020年11月27日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关VIP内容
最新《对比监督学习》综述论文,20页pdf
专知会员服务
82+阅读 · 2020年11月5日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
最新《深度半监督学习》综述论文,43页pdf
专知会员服务
153+阅读 · 2020年6月12日
最新《智能交通系统的深度强化学习》综述论文,22页pdf
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
172+阅读 · 2020年2月8日
专知会员服务
206+阅读 · 2019年8月30日
Top
微信扫码咨询专知VIP会员