OpenAI强化学习实战

2018 年 5 月 14 日 炼数成金订阅号
OpenAI强化学习实战

在过去的几年里,强化学习(RL,Reinforcement Learning)在很多方面取得了突破。DeepMind公司将深度学习与增强学习结合在一起,在众多的Atari游戏中来取得超越人类的表现,基于深度学习和强化学习训练得到的AlphaGo Zero更是完全从零开始,仅通过自我对弈就能天下无敌。虽然RL目前在许多游戏环境中都表现很出色,但它对解决需要最优决策和效率的问题而言是种全新方法,而且肯定会在机器智能中发挥作用。


OpenAI成立于2015年底,是一个非营利组织。它的目的是“建立安全的人工通用智能(AGI),并确保AGI的福利被尽可能广泛和均匀地分布”。除了探索关于AGI的诸多问题之外,OpenAI对机器学习世界的一个主要贡献是开发了Gym和Universe软件平台。


Gym是为测试和开发RL算法而设计的环境/任务的集合。它让用户不必再创建复杂的环境。Gym用Python编写,它有很多的环境,比如机器人模拟或Atari 游戏。它还提供了一个在线排行榜,供人们比较结果和代码。


课程大纲:

第1周 强化学习与常用的仿真环境平台介绍(MuJoCo, OpenAI Gym, rllab, DeepMind Lab, TORCS, PySC2等)

第2周 OpenAI gym中的常用仿真环境介绍,包括Atari 2600 游戏系列、MuJoCo 物理模拟器、Toy text 文本环境、Robotics机械手与机械臂模拟器等

第3周 马尔科夫决策过程MDP

第4周 基于gym的MDP实例讲解,基于OpenAI Gym构建股票市场交易环境

第5周 基于gym的强化学习实践:基于值函数的强化学习方法实现;基于策略梯度的强化学习方法实现

第6周 虚拟环境Universe: 一个用于训练解决通用问题 AI 的基础架构

第7周 基于Universe的强化学习实践:用OpenAI公司的Gym工具库和Universe平台为游戏创建人工智能机器人


开课时间:

本期课程将于6月9日开课,预计课程持续时间为9周


目标人群:

有简单的强化学习基础,希望学习强化学习的落地实现的同学


课程环境:

python3+OpenAI GYM+OpenAI Universe


收获预期:

学习结束后均能自己动手编写一个仿真环境,训练强化学习


授课讲师:

何翠仪  毕业于中山大学统计学专业,炼数成金专职讲师。

在炼数成金上开设了多门关于数据分析与数据挖掘相关的课程,如《大数据的统计学基础》、《大数据的矩阵基础》《金融时间序列分析》等,也曾到不同的公司开展R语言与数据分析的相关培训。对数据分析有深刻认识,曾与不同领域公司合作,参与到多个数据分析的项目中,如华为、广州地铁等


点击下方二维码或阅读原文报名课程:

登录查看更多
6

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

题目:Applied Reinforcement Learning with Python With OpenAI Gym, Tensorflow, and Keras

深入研究强化学习算法,并通过Python将它们应用到不同的用例中。这本书涵盖了重要的主题,如策略梯度和Q学习,并利用框架,如Tensorflow, Keras,和OpenAI Gym。

Python中的应用增强学习向您介绍了强化学习(RL)算法背后的理论和用于实现它们的代码。您将在指导下了解OpenAI Gym的特性,从使用标准库到创建自己的环境,然后了解如何构建强化学习问题,以便研究、开发和部署基于rl的解决方案。

你将学习:

  • 用Python实现强化学习
  • 使用AI框架,如OpenAI Gym、Tensorflow和Keras
  • 通过云资源部署和培训基于增强学习的解决方案
  • 应用强化学习的实际应用

这本书是给谁看的: 数据科学家、机器学习工程师和软件工程师熟悉机器学习和深度学习的概念。

地址:

https://www.springerprofessional.de/en/applied-reinforcement-learning-with-python/17098944

目录:

第1章 强化学习导论

在过去的一年里,深度学习技术的不断扩散和发展给各个行业带来了革命性的变化。毫无疑问,这个领域最令人兴奋的部分之一是强化学习(RL)。这本身往往是许多通用人工智能应用程序的基础,例如学习玩视频游戏或下棋的软件。强化学习的好处是,假设可以将问题建模为包含操作、环境和代理的框架,那么代理就可以熟悉大量的任务。假设,解决问题的范围可以从简单的游戏,更复杂的3d游戏,自动驾驶汽车教学如何挑选和减少乘客在各种不同的地方以及教一个机械手臂如何把握对象和地点在厨房柜台上。

第二章 强化学习算法

读者应该知道,我们将利用各种深度学习和强化学习的方法在这本书。然而,由于我们的重点将转移到讨论实现和这些算法如何在生产环境中工作,我们必须花一些时间来更详细地介绍算法本身。因此,本章的重点将是引导读者通过几个强化学习算法的例子,通常应用和展示他们在使用Open AI gym 不同的问题。

第三章 强化学习算法:Q学习及其变体

随着策略梯度和Actor-Critic模型的初步讨论的结束,我们现在可以讨论读者可能会发现有用的替代深度学习算法。具体来说,我们将讨论Q学习、深度Q学习以及深度确定性策略梯度。一旦我们了解了这些,我们就可以开始处理更抽象的问题,更具体的领域,这将教会用户如何处理不同任务的强化学习。

第四章 通过强化学习做市场

除了在许多书中发现的强化学习中的一些标准问题之外,最好看看那些答案既不客观也不完全解决的领域。在金融领域,尤其是强化学习领域,最好的例子之一就是做市。我们将讨论学科本身,提出一些不基于机器学习的基线方法,然后测试几种基于强化学习的方法。

第五章 自定义OpenAI强化学习环境

在我们的最后一章,我们将专注于Open AI Gym,但更重要的是尝试理解我们如何创建我们自己的自定义环境,这样我们可以处理更多的典型用例。本章的大部分内容将集中在我对开放人工智能的编程实践的建议,以及我如何编写这个软件的建议。最后,在我们完成创建环境之后,我们将继续集中精力解决问题。对于这个例子,我们将集中精力尝试创建和解决一个新的视频游戏。

成为VIP会员查看完整内容
0
96
小贴士
相关VIP内容
专知会员服务
18+阅读 · 2020年7月6日
专知会员服务
108+阅读 · 2020年5月22日
专知会员服务
161+阅读 · 2020年4月19日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
229+阅读 · 2020年3月17日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
97+阅读 · 2020年3月1日
专知会员服务
99+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
102+阅读 · 2019年12月14日
相关论文
How to Fine-Tune BERT for Text Classification?
Chi Sun,Xipeng Qiu,Yige Xu,Xuanjing Huang
11+阅读 · 2019年5月14日
Claudio Gambella,Bissan Ghaddar,Joe Naoum-Sawaya
8+阅读 · 2019年1月16日
Jingkang Wang,Yang Liu,Bo Li
3+阅读 · 2018年10月5日
Image Captioning based on Deep Reinforcement Learning
Haichao Shi,Peng Li,Bo Wang,Zhenyu Wang
7+阅读 · 2018年9月13日
Antoine J. -P. Tixier
10+阅读 · 2018年8月30日
Wenbin Li,Jing Huo,Yinghuan Shi,Yang Gao,Lei Wang,Jiebo Luo
8+阅读 · 2018年5月15日
Ermo Wei,Drew Wicke,David Freelan,Sean Luke
10+阅读 · 2018年4月25日
K. Lakshmanan
6+阅读 · 2018年4月24日
Zhiyuan Xu,Jian Tang,Jingsong Meng,Weiyi Zhang,Yanzhi Wang,Chi Harold Liu,Dejun Yang
7+阅读 · 2018年1月17日
Xiangyu Zhao,Liang Zhang,Zhuoye Ding,Dawei Yin,Yihong Zhao,Jiliang Tang
12+阅读 · 2018年1月5日
Top