【话题留言赠书】强化学习(RL)在NLP的应用前景如何

2019 年 7 月 20 日 AINLP

周末搞个话题留言赠书活动,话题来源于知乎的一个问题:强化学习(RL)在NLP的应用前景如何。感兴趣的同学可以留言,想听听大家的想法和建议,特别欢迎有实战经验的同学分享。奖品是3本新书《强化学习原理与Python实现》,感谢机械工业出版社华章公司支持。留言截止下周二(7月23日)晚8点,到时候我会直接从留言中选择3位同学赠书。





本书是国内第一本基于TensorFlow2实现的算法,现在在【华章鲜读】购买本书鲜读专栏享受7折优惠62.3元(原价89元),不仅可以入库即刻发货得到作者签名版(先到先得),还可以在鲜读平台向作者提问,和鲜友交流。了解或购买该书链接,点击阅读原文可以直达

https://w.url.cn/s/AME39m1


以下是该书的介绍及目录:


强化学习正在改变人类社会的方方面面:基于强化学习的游戏AI已经在围棋、星际争霸等游戏上战胜人类顶尖选手,基于强化学习的控制算法已经运用于机器人、无人机等设备,基于强化学习的交易算法已经部署在金融平台上并取得超额收益。由于同一套强化学习代码在使用同一套参数的情况下能解决多个看起来毫无关联的问题,所以强化学习常被认为是迈向通用人工智能的重要途径。在此诚邀相关专业人士研究强化学习,以立于人工智能的时代之巅。


内容梗概

本书介绍强化学习理论及其Python实现,全书分为三个部分。


1章:介绍强化学习的基础知识与环境库Gym的使用,并给出一个完整的编程实例。


29章:介绍强化学习的理论和算法。采用严谨的数学语言,推导强化学习的基本理论,进而在理论的基础上讲解算法,并为算法提供配套的Python实现。算法的讲解和Python实现逐一对应,覆盖了所有主流的强化学习算法。


1012章:介绍多个综合案例,包括电动游戏、棋盘游戏和自动驾驶。环境部分涵盖Gym库的完整安装和自定义扩展,也包括Gym库以外的环境。算法部分涵盖了《自然》《科学》等权威期刊发表的多个深度强化学习明星算法。


本书特色


本书完整地介绍了主流的强化学习理论。


全书采用完整的数学体系,各章内容循序渐进,严谨地讲授强化学习的理论基础,主要定理均给出证明过程。基于理论讲解强化学习算法,覆盖了所有主流强化学习算法,包括资格迹等经典算法和深度确定性梯度策略等深度强化学习算法。


全书采用一致的数学符号,并且与权威强化学习教程(如R. Sutton等的《Reinforce-ment Learning: An Introduction(第2版)》和D. Silver的视频课程)完美兼容。


本书各章均提供Python代码,实战性强。


全书代码统一规范,基于最新的Python 3.7(兼容Python 3.6)、Gym 0.12TensorFlow 2(兼容TensorFlow 1)实现强化学习算法。所有代码在WindowsmacOSLinux三大操作系统上均可运行,书中给出了环境的安装和配置方法。


涉及环境全面。第19章提供算法的配套实现,强化学习环境只依赖于Gym的最小安装,使理论学习免受环境安装困扰;第1012章的综合案例既涵盖Gym库的完整安装和自定义扩展,还包括Gym库以外的环境,让读者体验更加复杂的强化学习任务。


全书实现对硬件配置要求低。第19章代码在没有GPU的计算机上也可运行;第1012章代码在配置普通GPU的计算机上即可运行。

 

目  录

前言

1章 初识强化学习 

1.1 强化学习及其关键元素 

1.2 强化学习的应用 

1.3 智能体/环境接口 

1.4 强化学习的分类 

1.4.1 按任务分类 

1.4.2 按算法分类 

1.5 如何学习强化学习 

1.5.1 学习路线 

1.5.2 学习资源 

1.6 案例:基于Gym库的智能体/环境交互 

1.6.1 安装Gym 

1.6.2 使用Gym 

1.6.3 小车上山 

1.7 本章小结 

2章 Markov决策过程 

2.1Markov决策过程模型 

2.1.1 离散时间Markov决策过程 

2.1.2 环境与动力 

2.1.3 智能体与策略 

2.1.4 奖励、回报与价值函数 

2.2Bellman期望方程 

2.3 最优策略及其性质 

2.3.1 最优策略与最优价值函数 

2.3.2Bellman最优方程 

2.3.3 用Bellman最优方程求解最优策略 

2.4 案例:悬崖寻路 

2.4.1 实验环境使用 

2.4.2 求解Bellman期望方程 

2.4.3 求解Bellman最优方程 

2.5 本章小结 

3章 有模型数值迭代 

3.1 度量空间与压缩映射 

3.1.1 度量空间及其完备性 

3.1.2 压缩映射与Bellman算子 

3.1.3Banach不动点定理 

3.2 有模型策略迭代 

3.2.1 策略评估

3.2.2 策略改进 

3.2.3 策略迭代 

3.3 有模型价值迭代 

3.4 动态规划 

3.4.1 从动态规划看迭代算法 

3.4.2 异步动态规划 

3.5 案例:冰面滑行 

3.5.1 实验环境使用 

3.5.2 有模型策略迭代求解 

3.5.3 有模型价值迭代求解 

3.6 本章小结 

4章 回合更新价值迭代 

4.1 同策回合更新 

4.1.1 同策回合更新策略评估 

4.1.2 带起始探索的同策回合更新 

4.1.3 基于柔性策略的同策回合更新 

4.2 异策回合更新

4.2.1 重要性采样

4.2.2 异策回合更新策略评估 

4.2.3 异策回合更新最优策略求解 

4.3 案例:21点游戏 

4.3.1 实验环境使用 

4.3.2 同策策略评估 

4.3.3 同策最优策略求解 

4.3.4 异策策略评估 

4.3.5 异策最优策略求解 

4.4 本章小结

5章 时序差分价值迭代 

5.1 同策时序差分更新 

5.1.1 时序差分更新策略评估 

5.1.2SARSA算法 

5.1.3 期望SARSA算法 

5.2 异策时序差分更新 

5.2.1 基于重要性采样的异策算法 

5.2.2Q学习 

5.2.3 双重Q学习 

5.3 资格迹 

5.3.1 λ回报 

5.3.2TD(λ

5.4 案例:出租车调度 

5.4.1 实验环境使用 

5.4.2 同策时序差分学习调度 

5.4.3 异策时序差分学习调度 

5.4.4 资格迹学习调度 

5.5 本章小结 

6章 函数近似方法 

6.1 函数近似原理 

6.1.1 随机梯度下降

6.1.2 半梯度下降 

6.1.3 带资格迹的半梯度下降 

6.2 线性近似 

6.2.1 精确查找表与线性近似的关系 

6.2.2 线性最小二乘策略评估 

6.2.3 线性最小二乘最优策略求解 

6.3 函数近似的收敛性 

6.4 深度Q学习 

6.4.1 经验回放 

6.4.2 带目标网络的深度Q学习 

6.4.3 双重深度Q网络 

6.4.4 对偶深度Q网络 

6.5 案例:小车上山 

6.5.1 实验环境使用 

6.5.2 用线性近似求解最优策略 

6.5.3 用深度Q学习求解最优策略 

6.6 本章小结 

7章 回合更新策略梯度方法 

7.1 策略梯度算法的原理 

7.1.1 函数近似与动作偏好 

7.1.2 策略梯度定理 

7.2 同策回合更新策略梯度算法 

7.2.1 简单的策略梯度算法 

7.2.2 带基线的简单策略梯度算法 

7.3 异策回合更新策略梯度算法 

7.4 策略梯度更新和极大似然估计的关系 

7.5 案例:车杆平衡 

7.5.1 同策策略梯度算法求解最优策略 

7.5.2 异策策略梯度算法求解最优策略 

7.6 本章小结

8章 执行者/评论者方法

8.1 同策执行者/评论者算法 

8.1.1 动作价值执行者/评论者算法 

8.1.2 优势执行者/评论者算法 

8.1.3 带资格迹的执行者/评论者算法 

8.2 基于代理优势的同策算法 

8.2.1 代理优势

8.2.2 邻近策略优化 

8.3 信任域算法 

8.3.1KL散度 

8.3.2 信任域 

8.3.3 自然策略梯度算法 

8.3.4 信任域策略优化 

8.3.5Kronecker因子信任域执行者/评论者算法 

8.4 重要性采样异策执行者/评论者算法 

8.4.1 基本的异策算法 

8.4.2 带经验回放的异策算法 

8.5 柔性执行者/评论者算法 

8.5.1 熵 

8.5.2 奖励工程和带熵的奖励 

8.5.3 柔性执行者/评论者的网络设计 

8.6 案例:双节倒立摆 

8.6.1 同策执行者/评论者算法求解最优策略 

8.6.2 异策执行者/评论者算法求解最优策略 

8.7 本章小结 

9章 连续动作空间的确定性策略 

9.1 同策确定性算法 

9.1.1 策略梯度定理的确定性版本 

9.1.2 基本的同策确定性执行者/评论者算法 

9.2 异策确定性算法 

9.2.1 基本的异策确定性执行者/评论者算法 

9.2.2 深度确定性策略梯度算法 

9.2.3 双重延迟深度确定性

策略梯度算法 

9.3 案例:倒立摆的控制 

9.3.1 用深度确定性策略梯度算法求解 

9.3.2 用双重延迟深度确定性算法求解 

9.4 本章小结 

10章 综合案例:电动游戏 

10.1Atari游戏环境 

10.1.1Gym库的完整安装 

10.1.2 游戏环境使用 

10.2 基于深度Q学习的游戏AI 

10.2.1 算法设计 

10.2.2 智能体的实现 

10.2.3 智能体的训练和测试 

10.3 本章小结 

11章 综合案例:棋盘游戏 

11.1 双人确定性棋盘游戏 

11.1.1 五子棋和井字棋 

11.1.2 黑白棋 

11.1.3 围棋 

11.2AlphaZero算法 

11.2.1 回合更新树搜索 

11.2.2 深度残差网络 

11.2.3 自我对弈 

11.2.4 算法流程 

11.3 棋盘游戏环境boardgame2 

11.3.1 为Gym库扩展自定义环境 

11.3.2boardgame2设计 

11.3.3Gym环境接口的实现 

11.3.4 树搜索接口的实现 

11.4AlphaZero算法实现 

11.4.1 智能体类的实现 

11.4.2 自我对弈的实现 

11.4.3 训练智能体 

11.5 本章小结 

12章 综合案例:自动驾驶 

12.1AirSim开发环境使用 

12.1.1 安装和运行AirSim 

12.1.2 用Python访问AirSim 

12.2 基于强化学习的自动驾驶 

12.2.1 为自动驾驶设计强化

学习环境 

12.2.2 智能体设计和实现 

12.2.3 智能体的训练和测试 

12.3 本章小结 


登录查看更多
0

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
强化学习和最优控制的《十个关键点》81页PPT汇总
专知会员服务
103+阅读 · 2020年3月2日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
专知会员服务
235+阅读 · 2020年1月23日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
人工智能学习笔记,247页pdf
专知会员服务
182+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
植树节,送 25 本AI & NLP & Python相关书籍
AINLP
21+阅读 · 2019年3月12日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
公开课 | 强化学习及其在 NLP 上的应用
AI研习社
4+阅读 · 2018年6月14日
基于强化学习的量化交易框架
机器学习研究会
28+阅读 · 2018年2月22日
Python & 机器学习之项目实践 | 赠书
人工智能头条
14+阅读 · 2017年12月26日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
5+阅读 · 2018年10月4日
Arxiv
22+阅读 · 2018年8月30日
Stock Chart Pattern recognition with Deep Learning
Arxiv
6+阅读 · 2018年8月1日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
11+阅读 · 2018年4月25日
VIP会员
相关VIP内容
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
干货书《数据科学数学系基础》2020最新版,266页pdf
专知会员服务
319+阅读 · 2020年3月23日
强化学习和最优控制的《十个关键点》81页PPT汇总
专知会员服务
103+阅读 · 2020年3月2日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
专知会员服务
235+阅读 · 2020年1月23日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
人工智能学习笔记,247页pdf
专知会员服务
182+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
植树节,送 25 本AI & NLP & Python相关书籍
AINLP
21+阅读 · 2019年3月12日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
公开课 | 强化学习及其在 NLP 上的应用
AI研习社
4+阅读 · 2018年6月14日
基于强化学习的量化交易框架
机器学习研究会
28+阅读 · 2018年2月22日
Python & 机器学习之项目实践 | 赠书
人工智能头条
14+阅读 · 2017年12月26日
相关论文
Arxiv
4+阅读 · 2018年10月31日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
5+阅读 · 2018年10月4日
Arxiv
22+阅读 · 2018年8月30日
Stock Chart Pattern recognition with Deep Learning
Arxiv
6+阅读 · 2018年8月1日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
11+阅读 · 2018年4月25日
Top
微信扫码咨询专知VIP会员