成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
通用强化学习用算法发现算法:DeepMind 数据驱动「价值函数」自我更新,14款Atari游戏完虐人类!
2020 年 7 月 27 日
新智元
新智元报道
来源:DeepMind
编辑:白峰
【新智元导读】
击败卡斯帕罗夫的「深蓝」并不是真正的人工智能,它过度依赖了人类设计的规则,而最近DeepMind的一项深度强化学习新研究表明,不用人工介入,完全数据驱动,算法自己就能发现算法。
「深蓝」并非以智取胜,而是一个劳动密集型选手
当「深蓝」在1997年击败国际象棋世界冠军卡斯帕罗夫时,人工智能似乎要来了。
一台电脑击败了有史以来最聪明的国际象棋选手之一,很多人惊呼,电脑要超越人类了。
然而事实并非如此,虽然「深蓝」是一段精心编制的程序,但这种方法过于劳动密集,过于依赖清晰的规则和有限的可能性,无法迁移到更复杂的游戏中,更不用说现实世界了。
深度学习成功的关键在于算法基本上是自己编写的
,给定数据集,他们从中学习到一些表征,所谓的算法就是这么出来的。
而DeepMind 正在开发一种新的元学习算法来进一步实现自动化,这种算法能够从零开始发现自己的价值函数--深度强化学习中的一个关键编程规则。
近日该论文发表在了arxiv上。
发现强化学习算法的算法
DeepMind最近引入了一种新的元学习方法,可以自动生成强化学习算法,称为学习策略梯度(LPG)
。
研究人员认为,该算法可以从数据中自动发现更新规则,而且能更好地适应特定环境,它既包括预测什么(价值函数),又包括如何从中学习,如何与环境交互。
该元学习方法的目标是从环境和初始代理参数的分布中寻找最优的更新规则。
我们来看下学习策略梯度(LPG)是如何进行元训练的。
首先用θ参数化主体产生状态的动作概率π和预测向量y。
其次由η设置的更新规则(LPG)将代理的输出作为输入,向后展开给LSTM以生成代理输出(πˆ,yˆ)的目标。
最后,更新规则参数η是从多个生存期进行元学习的,在每个生存期中,不同的代理与采样的环境进行交互,并使用共享更新规则更新其参数θ。在所有K <N个参数通过滑动窗口更新后(在所有并行生命周期内取平均值),计算出元梯度以使回报最大化。
LPG进行元训练时,没有做任何试图发现更新规则的先验工作,取而代之的是,它们全都依赖于价值函数(可以说是RL的最基本构建块)进行引导
。
代理的更新(θ)
代理通过下面这个公式引导梯度上升来更新参数:
其中πˆ和yˆ是LPG的输出。
是Kullback-Leibler散度。
αy是用于预测更新的系数,在更高的层面来看,πˆ指定应如何调整动作概率,并直接影响代理的行为。yˆ指定 代理在给定状态预测下的类别分布,并且在LPG发现其有用的语义(例如,价值函数)并使用y通过自举来间接更改策略之前,不会对策略产生影响。
LPG的元训练过程
这只是研究人员建议的框架,实际上并不限于这种特定形式的代理更新和架构(例如,具有KL散度的分类预测),你也可以采用其他方案。但是,有一点需要注意,不要对y强制执行任何语义,只能允许LPG从数据中发现y的语义。
LPG的更新(η)
对LPG进行元训练时,要考虑到它可以在多大程度上改善与不同类型环境交互的代理的性能。具体而言,通过对等式中的目标应用策略梯度来计算元梯度。
直观地,我们使用从θ0到θN的更新规则η进行N次参数更新,直到生命周期结束,并估计更新参数θN的策略梯度,以找到使θN的预期收益(G)最大化的超梯度方向。
从零开始自主学习,已经在14款游戏中超越人类
LPG生成的强化学习算法表现如何呢?研究人员在复杂的Atari游戏中对LPG进行了评估。
与高级RL算法相比,LPG可以很好地推广到Atari游戏。
令人惊讶的是,训练环境主要由表格形式的数据组成,其基本任务比Atari游戏要简单得多,而且LPG在元训练期间从未见过如此复杂的世界。
不过,接受LPG训练的代理可以在许多Atari游戏中学习复杂的行为,从而在14款游戏中实现超越人类的表现,而无需依赖任何手工设计的RL组件(例如价值函数),而是使用从零开始发现的规则。
上图展示了LPG从玩具环境到Atari的泛化。X轴是用于元学习LPG的玩具环境的数量。Y轴是代理在训练结束时胜过人类的Atari游戏的数量。虚线对应每年的最新算法。可以看到LPG的表现非常喜人。
更多的细节请参见:
https://arxiv.org/pdf/2007.08794.pdf
LPG不是很完美,但我们离通用RL又近了一步
LPG仍然落后于人工设计的先进算法。但是它在训练甚至是某些Atari游戏中的表现都超过了人为设计的基准,但这只能表明它在某些环境下是出色的。
本文首次尝试了结合「预测内容」和「如何进行引导」来元学习完整的RL的更新规则,从而取代了一些现有的RL概念。
由于LPG完全是数据驱动的,得出的算法可能会捕获环境训练集中的意外偏差,而除了发现算法时的奖励,训练时并没有提供特定领域的信息,这使得算法很难在训练环境中捕获偏见。
但是至少证明了,强化学习从玩具环境迁移到具有挑战性的基准是可能的。DeepMind的这一研究,让我们朝着通用 RL 算法又迈进了一步。
登录查看更多
点赞并收藏
0
暂时没有读者
1
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
价值函数
关注
0
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
67+阅读 · 2020年9月27日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【圣经书】《强化学习导论(2nd)》电子书与代码,548页pdf
专知会员服务
201+阅读 · 2020年5月22日
【CVPR2020】我们能用强化学习来学习图模型推断的启发规则吗?
专知会员服务
42+阅读 · 2020年5月5日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
强化学习和最优控制的《十个关键点》81页PPT汇总
专知会员服务
103+阅读 · 2020年3月2日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
【DeepMind-Nando de Freitas】强化学习教程,102页ppt,Reinforcement Learning
专知会员服务
83+阅读 · 2019年11月15日
【综述】多智能体深度强化学习综述,附49页PDF
专知会员服务
206+阅读 · 2019年8月30日
干货 | 强化学习中,如何从稀疏和不明确的反馈中学习泛化
AI科技评论
7+阅读 · 2019年3月1日
除了DQN/A3C,还有哪些高级强化学习成果
论智
15+阅读 · 2018年10月28日
学界 | 伯克利、OpenAI等提出基于模型的元策略优化强化学习
机器之心
15+阅读 · 2018年10月21日
增强学习算法讲解:马尔可夫决策过程MDP
数据挖掘入门与实战
7+阅读 · 2018年4月22日
入门 | 从Q学习到DDPG,一文简述多种强化学习算法
机器之心
17+阅读 · 2018年1月21日
【AlphaGo Zero 核心技术-深度强化学习教程代码实战04】Agent类和SARSA算法实现
专知
4+阅读 · 2017年10月27日
【AlphaGo Zero 核心技术-深度强化学习教程笔记06】价值函数的近似表示
机器学习研究会
5+阅读 · 2017年10月26日
【DeepMind 公开课-深度强化学习教程代码实战01】迭代法评估4*4方格世界下的随机策略
专知
6+阅读 · 2017年10月23日
【DeepMind 公开课-深度强化学习教程笔记04】不基于模型的预测
专知
5+阅读 · 2017年10月23日
【AlphaGo核心技术-教程学习笔记02】深度强化学习第二讲 马尔科夫决策过程
机器学习研究会
5+阅读 · 2017年10月22日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Few-shot Learning with Meta Metric Learners
Arxiv
13+阅读 · 2019年1月26日
Automatic Face Aging in Videos via Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年11月27日
Bipedal Walking Robot using Deep Deterministic Policy Gradient
Arxiv
3+阅读 · 2018年7月16日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Multiagent Soft Q-Learning
Arxiv
11+阅读 · 2018年4月25日
Logically-Constrained Reinforcement Learning
Arxiv
5+阅读 · 2018年4月22日
Modeling Others using Oneself in Multi-Agent Reinforcement Learning
Arxiv
4+阅读 · 2018年3月22日
Stack-Captioning: Coarse-to-Fine Learning for Image Captioning
Arxiv
6+阅读 · 2018年3月14日
Improved Image Captioning via Policy Gradient optimization of SPIDEr
Arxiv
6+阅读 · 2018年3月12日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
价值函数
值函数
Atari
DeepMind
强化学习
数据驱动
相关VIP内容
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
67+阅读 · 2020年9月27日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【圣经书】《强化学习导论(2nd)》电子书与代码,548页pdf
专知会员服务
201+阅读 · 2020年5月22日
【CVPR2020】我们能用强化学习来学习图模型推断的启发规则吗?
专知会员服务
42+阅读 · 2020年5月5日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
强化学习和最优控制的《十个关键点》81页PPT汇总
专知会员服务
103+阅读 · 2020年3月2日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
【DeepMind-Nando de Freitas】强化学习教程,102页ppt,Reinforcement Learning
专知会员服务
83+阅读 · 2019年11月15日
【综述】多智能体深度强化学习综述,附49页PDF
专知会员服务
206+阅读 · 2019年8月30日
热门VIP内容
开通专知VIP会员 享更多权益服务
《人类-航空/航天机器人协作网络中的动态覆盖控制和估计》177页
《数字目标定位:人工智能、数据和军事情报》
从俄乌战争中汲取的地理空间情报教训
《国防和国家安全中的战术边缘物联网》最新45页
相关资讯
干货 | 强化学习中,如何从稀疏和不明确的反馈中学习泛化
AI科技评论
7+阅读 · 2019年3月1日
除了DQN/A3C,还有哪些高级强化学习成果
论智
15+阅读 · 2018年10月28日
学界 | 伯克利、OpenAI等提出基于模型的元策略优化强化学习
机器之心
15+阅读 · 2018年10月21日
增强学习算法讲解:马尔可夫决策过程MDP
数据挖掘入门与实战
7+阅读 · 2018年4月22日
入门 | 从Q学习到DDPG,一文简述多种强化学习算法
机器之心
17+阅读 · 2018年1月21日
【AlphaGo Zero 核心技术-深度强化学习教程代码实战04】Agent类和SARSA算法实现
专知
4+阅读 · 2017年10月27日
【AlphaGo Zero 核心技术-深度强化学习教程笔记06】价值函数的近似表示
机器学习研究会
5+阅读 · 2017年10月26日
【DeepMind 公开课-深度强化学习教程代码实战01】迭代法评估4*4方格世界下的随机策略
专知
6+阅读 · 2017年10月23日
【DeepMind 公开课-深度强化学习教程笔记04】不基于模型的预测
专知
5+阅读 · 2017年10月23日
【AlphaGo核心技术-教程学习笔记02】深度强化学习第二讲 马尔科夫决策过程
机器学习研究会
5+阅读 · 2017年10月22日
相关论文
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Few-shot Learning with Meta Metric Learners
Arxiv
13+阅读 · 2019年1月26日
Automatic Face Aging in Videos via Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年11月27日
Bipedal Walking Robot using Deep Deterministic Policy Gradient
Arxiv
3+阅读 · 2018年7月16日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Multiagent Soft Q-Learning
Arxiv
11+阅读 · 2018年4月25日
Logically-Constrained Reinforcement Learning
Arxiv
5+阅读 · 2018年4月22日
Modeling Others using Oneself in Multi-Agent Reinforcement Learning
Arxiv
4+阅读 · 2018年3月22日
Stack-Captioning: Coarse-to-Fine Learning for Image Captioning
Arxiv
6+阅读 · 2018年3月14日
Improved Image Captioning via Policy Gradient optimization of SPIDEr
Arxiv
6+阅读 · 2018年3月12日
大家都在搜
智能推荐
汽车智能化
大型语言模型
全面综述
人工智能驱动
笛卡尔
壁画
PRML
MoE
GANLab 将GA
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top