前沿知识特惠团《OpenAI强化学习实战》

2018 年 12 月 4 日 炼数成金订阅号

商品详情

特惠福利,参与拼团,99元即可加入本课程,让您一站学会构建和训练自己的强化学习模型 !

课程学员全部进入课程QQ群。老师将在群内全程指导!此课就团此一次,速度行动!


参团规则:

学费99元,邀请一人同行即可成团,2人成团

团长开团后,分享团购链接,另一位团友付学费参团,即可成团。

成团后系统自动将2人(包含团长)加入课程。

(团长有特惠福利,开团有礼!)


课程简介:

在过去的几年里,强化学习(RL,Reinforcement Learning)在很多方面取得了突破。DeepMind公司将深度学习与增强学习结合在一起,在众多的Atari游戏中来取得超越人类的表现,基于深度学习和强化学习训练得到的AlphaGo Zero更是完全从零开始,仅通过自我对弈就能天下无敌。虽然RL目前在许多游戏环境中都表现很出色,但它对解决需要最优决策和效率的问题而言是种全新方法,而且肯定会在机器智能中发挥作用。


OpenAI成立于2015年底,是一个非营利组织。它的目的是“建立安全的人工通用智能(AGI),并确保AGI的福利被尽可能广泛和均匀地分布”。除了探索关于AGI的诸多问题之外,OpenAI对机器学习世界的一个主要贡献是开发了Gym和Universe软件平台。


Gym是为测试和开发RL算法而设计的环境/任务的集合。它让用户不必再创建复杂的环境。Gym用Python编写,它有很多的环境,比如机器人模拟或Atari 游戏。它还提供了一个在线排行榜,供人们比较结果和代码。


课程大纲:

第1周 强化学习与常用的仿真环境平台介绍(MuJoCo, OpenAI Gym, rllab, DeepMind Lab, TORCS, PySC2等)

第2周 OpenAI gym中的常用仿真环境介绍,包括Atari 2600 游戏系列、MuJoCo 物理模拟器、Toy text 文本环境、Robotics机械手与机械臂模拟器等

第3周 马尔科夫决策过程MDP

第4周 基于gym的MDP实例讲解,基于OpenAI Gym构建股票市场交易环境

第5周 基于gym的强化学习实践:基于值函数的强化学习方法实现;基于策略梯度的强化学习方法实现

第6周 虚拟环境Universe: 一个用于训练解决通用问题 AI 的基础架构

第7周 基于Universe的强化学习实践:用OpenAI公司的Gym工具库和Universe平台为游戏创建人工智能机器人


开课时间:

本期课程将于12月16日开课,预计课程持续时间为9周


收获预期:

学习结束后均能自己动手编写一个仿真环境,训练强化学习


授课讲师:

何翠仪  毕业于中山大学统计学专业,炼数成金专职讲师。

在炼数成金上开设了多门关于数据分析与数据挖掘相关的课程,如《大数据的统计学基础》、《大数据的矩阵基础》《金融时间序列分析》等,也曾到不同的公司开展R语言与数据分析的相关培训。对数据分析有深刻认识,曾与不同领域公司合作,参与到多个数据分析的项目中,如华为、广州地铁等


课程授课方式:

1、 学习方式:老师发布教学资料、教材,幻灯片和视频,学员通过网络下载学习。同时通过论坛互动中老师对学员进行指导及学员之间相互交流。

2、 学习作业:老师每周布置书面及互动作业,学员需按时按质完成作业。

3、 老师辅导:根据作业批改中发现的问题,针对性给予辅导,帮助大家掌握知识。

4、 结业测验:通过测验,完成学业。


如有疑问,欢迎咨询炼数成金客服

咨询电话:400-8010-006


点击下方二维码或阅读原文参加拼团:

登录查看更多
3

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
168+阅读 · 2020年2月8日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
112+阅读 · 2020年1月15日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
201+阅读 · 2020年1月13日
【强化学习】深度强化学习初学者指南
专知会员服务
178+阅读 · 2019年12月14日
专知会员服务
198+阅读 · 2019年8月30日
近期强化学习领域论文导读(附源码)
人工智能前沿讲习班
7+阅读 · 2019年6月15日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
OpenAI强化学习实战
炼数成金订阅号
8+阅读 · 2018年5月14日
关于强化学习(附代码,练习和解答)
深度学习
34+阅读 · 2018年1月30日
Seq2seq强化学习实战 (Pytorch, Tensorflow, Theano)
专知
15+阅读 · 2018年1月16日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
13+阅读 · 2019年1月26日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关VIP内容
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
27+阅读 · 2020年7月6日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
168+阅读 · 2020年2月8日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
112+阅读 · 2020年1月15日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
201+阅读 · 2020年1月13日
【强化学习】深度强化学习初学者指南
专知会员服务
178+阅读 · 2019年12月14日
专知会员服务
198+阅读 · 2019年8月30日
相关资讯
近期强化学习领域论文导读(附源码)
人工智能前沿讲习班
7+阅读 · 2019年6月15日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
OpenAI强化学习实战
炼数成金订阅号
8+阅读 · 2018年5月14日
关于强化学习(附代码,练习和解答)
深度学习
34+阅读 · 2018年1月30日
Seq2seq强化学习实战 (Pytorch, Tensorflow, Theano)
专知
15+阅读 · 2018年1月16日
相关论文
Arxiv
20+阅读 · 2019年9月7日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
13+阅读 · 2019年1月26日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
5+阅读 · 2018年4月22日
Top
微信扫码咨询专知VIP会员