“人工智能课程是玩游戏”,贾扬清的话被这个课实现了|资源

2020 年 10 月 12 日 量子位
桃良 发自 凹非寺 
量子位 报道 | 公众号 QbitAI

学习的枯燥似乎有种魔力,让人无法提起干劲。

看着我收藏夹里的各类课程,感觉基本上都难逃吃灰的命运,

除了它——可以“玩游戏”的深度强化学习课程。

阿里技术副总裁贾扬清说过:

人工智能课程是玩游戏。

这话对之于这个课程简直再合适不过了!

在课程中,你可以建立自己的智能体,然后教他们学会玩太空侵略者我的世界星际争霸刺猬索尼克等等!       

图源:simoninithomas

怎么样?是不是心动了。

那就开始你的游戏智能体的学习之旅吧。

深度强化学习简介

深度强化学习 (DRL) 是一种使用深度学习技术去扩展传统强化学习方法的一种机器学习方法。

传统强化学习方法的学习内容是:

智能体根据从环境中所获得的奖励,来学习如何才能够使自身获取的奖励最大化。


图源:simoninithomas

而传统无模型的强化学习方法则需要使用到函数逼近方法,然后让智能体能够学习得出值函数或策略。

在这种情况下,深度学习中强大的函数逼近能力便显示出他的优势并开始被研究人员所使用。

于是,二者的交叉——深度强化学习就出现了。

深度强化学习的标志性开端是2013年的论文——《Playing Atari with Deep Reinforcement Learning》

之后,基于深度强化学习的AlphaGo和OpenAI Five等人工智能在各类复杂游戏中相继击败了人类顶尖玩家,引起了各方的关注。

此外,深度强化学习在其他领域也有着不同程度的研究和应用,比如:机械手的敏捷训练、室内定位、智能运输等。

课程内容

该课程一共分为12章:

可以看出,从DRL基础(1),再到Q-Learning、深度Q-Learning(2-4),然后是策略梯度(5-8),最后是Unity机器学习智能体(10-12)。

作者用一个循序渐进的过程讲授了各类常见且主流的深度强化学习的方法。

同时,最大的吸引点莫过于是每一章节都安排了不同的游戏实践。

这很令人兴奋不是嘛?

动手去这些游戏建立自己的智能体!

图源:simoninithomas

对此,作者Thomas Simonini介绍道:

自2018年推出该课程的第一版以来,我们发布了许多新库:TF-Agents、Stable-Baseline 2.0…和环境:MineRL(Minecraft)、Unity ML-Agents、OpenAI retro(NES、SNES、MD游戏机里的游戏…)。您现在可以访问许多游戏来建立自己的智能体。

这就是为什么这是开始学习的最佳时机,而使用本课程,你来对地方了。

这是一门从初学者到专家的免费课程,在这里您将掌握所需的技能和体系结构,从而成为深度强化学习专家。

关于作者

Thomas Simonini

一位热衷于强化学习(RL)教育及其在视频游戏行业中的应用的视频游戏从业者。

2016年获得法律和政治科学学士学位,之后开始自学数学、深度学习和深度强化学习等相关课程。

2017年进入Udacity学习并分别获得了深度学习、人工智能的Nano学位。

2018年,他开设了深度强化学习课程,这是一个免费的开源文章和视频系列。这门课程成功收获了45,000+的点赞,每周约有4,000名阅读量。

资源获取

该课程的完整内容见于Github:

https://simoninithomas.github.io/deep-rl-course/#syllabus

该作者在Youtube上的个人账号:

https://www.youtube.com/c/thomassimonini?sub_confirmation=1

参考链接:
https://simoninithomas.github.io/deep-rl-course/#syllabus
https://zh.wikipedia.org/wiki/%E6%B7%B1%E5%BA%A6%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0
https://medium.com/@thomassimonini/an-introduction-to-deep-reinforcement-learning-17a565999c0c
https://www.simoninithomas.com/

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

榜单征集!7大奖项锁定AI TOP企业

「2020中国人工智能年度评选」正式启幕!将从公司、人物、产品、社区四大维度共7个奖项寻找优秀的AI企业,欢迎大家扫码报名参与。 
榜单将于12月揭晓,也期待与百万从业者们,共同见证这些优秀企业的荣誉!


量子位 QbitAI · 头条号签约作者


վ'ᴗ' ի 追踪AI技术和产品新动态


一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~



登录查看更多
0

相关内容

深度强化学习 (DRL) 是一种使用深度学习技术扩展传统强化学习方法的一种机器学习方法。 传统强化学习方法的主要任务是使得主体根据从环境中获得的奖赏能够学习到最大化奖赏的行为。然而,传统无模型强化学习方法需要使用函数逼近技术使得主体能够学习出值函数或者策略。在这种情况下,深度学习强大的函数逼近能力自然成为了替代人工指定特征的最好手段并为性能更好的端到端学习的实现提供了可能。
不可错过!CMU《深度学习导论》2020课程,附课件与视频
专知会员服务
79+阅读 · 2020年10月27日
佐治亚理工2020《数据库系统实现》课程,不可错过!
专知会员服务
23+阅读 · 2020年10月14日
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
66+阅读 · 2020年9月27日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
【机器学习课程】Google机器学习速成课程
专知会员服务
162+阅读 · 2019年12月2日
从入门到精通-Tensorflow深度强化学习课程
深度学习与NLP
23+阅读 · 2019年3月7日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
前沿知识特惠团《OpenAI强化学习实战》
炼数成金订阅号
3+阅读 · 2018年12月4日
OpenAI强化学习实战
炼数成金订阅号
9+阅读 · 2018年5月14日
学不学吴恩达deeplearning.ai课程,看完这篇你就知道了
深度学习世界
3+阅读 · 2018年4月4日
一文读懂深度学习(附学习资源)
深度学习世界
6+阅读 · 2017年11月9日
独家 | 一文读懂深度学习(附学习资源)
THU数据派
4+阅读 · 2017年11月8日
Arxiv
0+阅读 · 2020年11月26日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
21+阅读 · 2018年8月30日
VIP会员
相关VIP内容
不可错过!CMU《深度学习导论》2020课程,附课件与视频
专知会员服务
79+阅读 · 2020年10月27日
佐治亚理工2020《数据库系统实现》课程,不可错过!
专知会员服务
23+阅读 · 2020年10月14日
【康奈尔】最新《强化学习基础》CS 6789课程
专知会员服务
66+阅读 · 2020年9月27日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
【机器学习课程】Google机器学习速成课程
专知会员服务
162+阅读 · 2019年12月2日
相关资讯
从入门到精通-Tensorflow深度强化学习课程
深度学习与NLP
23+阅读 · 2019年3月7日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
前沿知识特惠团《OpenAI强化学习实战》
炼数成金订阅号
3+阅读 · 2018年12月4日
OpenAI强化学习实战
炼数成金订阅号
9+阅读 · 2018年5月14日
学不学吴恩达deeplearning.ai课程,看完这篇你就知道了
深度学习世界
3+阅读 · 2018年4月4日
一文读懂深度学习(附学习资源)
深度学习世界
6+阅读 · 2017年11月9日
独家 | 一文读懂深度学习(附学习资源)
THU数据派
4+阅读 · 2017年11月8日
相关论文
Arxiv
0+阅读 · 2020年11月26日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
21+阅读 · 2018年8月30日
Top
微信扫码咨询专知VIP会员