【NeurlPS2019教程】微软首席研究员Katja Hofmann - 强化学习:过去、现在和未来展望,附97页ppt

导读

强化学习是一种系统的学习和决策方法。经过近几十年来发展和研究,现在RL与深度学习相结合,展示了当今RL系统的能力,并激发了人们极大的兴趣。本教程回顾了强化学习的过去,总结了一些挑战,最后展望了强化学习未来的研究可能和现实应用。


作者 | Katja Hofmann
编译 | Xiaowen


aka.ms/gameintelligence
Twitter: @katjahofmann
地址: https://neurips.cc/Conferences/2019/Schedule?showEvent=13211



目录
形式化RL Formalizing RL
值函数 Value Functions
探索 Exploration
策略梯度与Actor-Critic算法
生成 Generalization
结构 Structure
模型 Models
新的挑战



01

Formalizing RL 

形式化RL



强化学习的主要挑战:
  1. 探索-利用困境 Explore-exploit
  2. 信用分配问题 Credit assignment
  3. 函数近似 Function approximation


贴几个资料供学习:
1. https://blog.csdn.net/xbinworld/article/details/79372777
2. https://antkillerfarm.github.io/rl/2018/11/18/RL

02

Value Functions

值函数



篇幅有限,完整内容请下载全文PPT查看,下载方式见文末。

3   

Function Approximation

函数近似



04

Exploration

探索



05

Policy Gradient and Actor Critic Approaches

策略梯度与Actor-Critic算法



篇幅有限,完整内容请下载全文PPT查看,下载方式见文末。


完整PPT下载:关注专知公众号(点击上方蓝色专知关注)
  • 后台回复“NIPS2019RL” 获取强化学习:过去、现在和未来展望97页ppt链接下载索引~


更多“强化学习”相关内容,请登录专知网站www.zhuanzhi.ai,搜索“强化学习”获取更多相关资料:



专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
展开全文
Top
微信扫码咨询专知VIP会员