【强化学习】人工智能的新希望-强化学习全解

2017 年 8 月 18 日 产业智能官 大数据文摘

大数据文摘  BigDataDigest   普及数据思维,传播数据文化

                                                                       

大数据文摘作品,转载具体要求见文末

编译团队 | Jennifer Zhu 赖小娟 张礼俊

作者 |  FAIZAN SHAIKH



很多人说,强化学习被认为是真正的人工智能的希望。本文将从7个方面带你入门强化学习,读完本文,希望你对强化学习及实战中实现算法有着更透彻的了解。




介绍


许多科学家都在研究的一个最基本的问题是“人类如何学习新技能?”。 理由显而易见– 如果我们能解答这个问题,人类就能做到很多我们以前没想到的事情。 另一种可能是我们训练机器去做更多的“人类”任务,创造出真正的人工智能。


虽然我们还没有上述问题的全部答案,但有一些事情是清楚的。不论哪种技能,我们都是先通过与环境的互动来学习它。无论是学习驾驶汽车还是婴儿学步,我们的学习都是基于与环境的互动。 从这些互动中学习是所有关于学习与智力的理论的基础概念。


强化学习


今天我们将探讨强化学习(Re-inforcement Learning) 一种基于与环境互动的目标导向的学习。强化学习被认为是真正的人工智能的希望。我们认为这是正确的说法,因为强化学习拥有巨大的潜力。


强化学习正在迅速发展。它已经为不同的应用构建了相应的机器学习算法。因此,熟悉强化学习的技术会对深入学习和使用机器学习非常有帮助。如果您还没听说过强化学习,我建议您阅读我之前关于强化学习和开源强化学习(RL)平台的介绍文章(https://www.analyticsvidhya.com/blog/2016/12/getting-ready-for-ai-based-gaming-agents-overview-of-open-source-reinforcement-learning-platforms/)。


如果您已经了解了一些强化学习的基础知识,请继续阅读本文。读完本文,您将会对强化学习及实战中实现算法有着更透彻的了解。


附:下面这些算法实现的讲解中,我们将假设您懂得Python的基本知识。如果您还不知道Python,建议可以先看看这个Python教程(https://www.analyticsvidhya.com/blog/2016/01/complete-tutorial-learn-data-science-python-scratch-2/)。


轻松搞定强化学习

(1-4是强化学习的步骤,5-7是其他资源)


1.      提出一个强化学习的问题

2.      强化学习 v.s. 其他机器学习方法

3.      解决强化学习问题的基本框架

4.      用python实现强化学习算法

5.      更复杂的应用

6.      强化学习的最新进展

7.      其他强化学习的资源

 

1. 提出一个强化学习的问题


强化学习的目的是学习如何做一件事情,以及如何根据不同的情况选择不同的行动。 它的最终结果是为了实现数值回报信号的最大化。强化学习并不告诉学习者采取哪种行动,而是让学习者去发现采取哪种行动能产生最大的回报。 下面让我们通过一个孩子学走路的简单例子(下图)来解释什么是强化学习。


上图:孩子学走路。

 


以下是孩子在学习走路时要采取的步骤:


  1. 首先孩子将观察你是如何行走的。你用两条腿,一步一步走。得到这个概念后,孩子试图模仿你走路的样子。

  2. 但孩子很快发现,走路之前必须站起来!这是一个试图走路必经的挑战。所以现在孩子试图先站起来,虽然经历挣扎和滑倒,但仍然决心站起来。

  3. 然后还有另一个挑战要应付:站起来很容易,但要保持站立又是另一项挑战!孩子挥舞着双手,似乎是想找到能支撑平衡的地方,设法保持着站立。

  4. 现在孩子开始他/她真正的任务––走路。这是件说比做容易的事。要记住很多要点,比如平衡体重,决定先迈哪个脚,把脚放在哪里。


这听起来像一个困难的任务吗?实际上站起来和开始走路确实有点挑战性,但当你走熟练了就不会再觉得走路难。不过通过我们的分析,现在的您大概明白了一个孩子学走路的困难点。


让我们把上面的例子描述成一个强化学习的问题(下图)。这个例子的“问题”是走路,这个过程中孩子是一个试图通过采取行动(行走)来操纵环境(孩子行走的表面)的智能体(agent)。他/她试图从一个状态(即他/她采取的每个步骤)到另一个状态。当他/她完成任务的子模块(即采取几个步骤)时,孩子将得到奖励(让我们说巧克力)。但当他/她不能完成走几步时,他/她就不会收到任何巧克力(亦称负奖励)。这就是对一个强化学习问题的简单描述。


 

上图:把小孩子学走路的过程(图下方)归纳成一个强化学习的问题(图上方)。

 

这里我们还推荐一个不错的对强化学习的视频介绍(https://www.youtube.com/watch?v=m2weFARriE8)。


2. 强化学习 v.s. 其他机器学习方法


强化学习是机器学习算法的一个大的类型。下图描述了机器学习方法的类型。


上图:机器学习的方法分类:蓝色方框从左到右依次为监督学习,无监督学习和强化学习。

 

让我们来比较一下强化学习和其他种类机器学习方法:


  • 监督学习(supervised learning)v.s. 强化学习:在监督学习中,有一个外部“监督者”(supervisor)。“监督者”了解环境,并与智能体共享环境信息以完成任务。但这其中存在一些问题,智能体可以通过执行许多种不同子任务的组合来达到目标。所以创建一个“监督者””几乎是不切实际的。例如在象棋游戏中,有成千上万种走法。因此,创建一个可以下象棋的知识库是一个单调乏味的任务。在这样的问题中,从经验中学习更为可行。这可以说是强化学习和监督学习的主要区别。在监督学习和强化学习中,输入和输出之间都存在映射(mapping)。但在强化学习中,还存在对智能体进行反馈的奖励函数,这在监督学习中是不存在的。


  • 无监督学习(unsupervised learning) v.s. 强化学习:在强化学习中,有一个从输入到输出的映射。这种映射在无监督学习中并不存在。在无监督学习中,主要任务是找到数据本身的规律而不是映射。例如,如果任务是向用户建议新闻文章,则无监督学习算法将查看该人先前读过的文章并向他们建议类似的文章。而强化学习算法将通过建议少量新闻文章给用户,从用户获得不断的反馈,然后构建一个关于人们喜欢哪些文章的“知识图”。


此外,还有第四种类型的机器学习方法,称为半监督学习(semi-supervised learning),其本质上是监督学习和无监督学习的结合(利用监督学习的标记信息,利用未标记数据的内在特征)。它类似于监督学习和半监督学习,不具有强化学习具备的反馈机制(奖赏函数)。(译者注:这里应该是原文作者的笔误,强化学习有映射,映射是每一个状态对应值函数。而无监督学习没有标记信息,可以说是没有映射的。我想这里作者想要表达的是半监督学习区别于强化学习的地方是半监督学习没有强化学习的反馈这个机制。


3. 解决强化学习问题的基本框架


为了了解如何解决强化学习问题,我们将分析一个强化学习问题的经典例子––多摇臂老虎机问题。 首先,我们将去回答探索 v.s. 利用的根本问题,然后继续定义基本框架来解决强化学习的问题。

 

上图:赌场里的“老虎机”。


假设你有很多吐出随机奖金的老虎机(即投币式游戏机,见上图)。


现在你想尽可能快地从老虎机获得最多的奖金。你会怎么做?


一个幼稚的方法可能是只选择一个老虎机,并拉一整天的杠杆。听起来好无聊,但这种方法可能会给你赢点小钱。你也有可能会中大奖(几率接近0.00000 ... .1),但大多数时候你可能只是坐在老虎机面前亏钱。这种方法的正式定义是一种纯利用(pureexploitation)的方法。这是我们的最佳选择吗?答案是不。


让我们看看另一种方法。我们可以拉每个老虎机的杠杆,并向上帝祈祷,至少有一个会中奖。这是另一个幼稚的方法,能让你拉一整天的杠杆,但老虎机们只会给你不那么好的收获。正式地,这种方法也被正式定义为一种纯探索(pureexploration)的方法。


这两种方法都不是最优的方法。我们得在它们之间找到适当的平衡以获得最大的回报。这被称为强化学习的探索与利用困境。


首先,我们要正式定义强化学习问题的框架,然后列出可能的解决方法。


马尔可夫决策过程:

在强化学习中定义解法的数学框架叫做马尔可夫决策过程(Markov Decision Process)。 它被设计为:

●       一系列状态的集合(Set of states),S

●       一系列行动的集合(Set of actions),A

●       奖励函数(Reward function),R

●       策略(Policy),π

●       价值(Valu),V


我们必须采取行动(A)从我们的开始状态过渡到我们的结束状态(S)。我们采取的每个行动将获得奖励(R)。 我们的行为可以导致正奖励或负奖励。


我们采取的行动的集合(A)定义了我们的策略(π),我们得到的奖励(R)定义了我们的价值(V)。 我们在这里的任务是通过选择正确的策略来最大化我们的奖励。 所以我们必须对时间t的所有可能的S值最大化。

 

旅行推销员问题


让我们通过另一个例子来进一步说明如何定义强化学习问题的框架。


上图:旅行推销员的例子。A–F表示地点,之间的连线上的数字代表在两个地点间的旅行成本。

 

这显示的是旅行推销员问题。推销员的任务是以尽可能低的成本从地点A到地点F。 这两个位置之间的每条连线上的数字表示旅行这段距离所需花费的成本。负成本实际上是一些出差的收入。 我们把当推销员执行一个策略累积的总奖励定义为价值。


这里,

●       一系列状态的集合是那些节点,即{A,B,C,D,E,F}

●       采取的行动的集合是从一个地方到另一个地方,即{A→B,C→D等}

●       奖励函数是节点的连线上的值,即成本

●       策略是完成任务的“方式”,即{A - > C - > F}


现在假设你在位置A,在这个平台上唯一可见路径是你下一目的地的(亦称可观测的空间),除此之外所有都是未知的。


当然你可以用贪婪算法选择下一步最有可能的,从{A -> (B, C, D, E)}子集中选出{A -> D}。同样的你在位置D,想要到达F,你可以从{D -> (B, C, F)}中选择,可以看出由于{D -> F}路径花费最小,选择此路径。


到此为止,我们的规则是{A -> D -> F},价值为-120.


恭喜你!你刚刚完成了一个强化学习算法。这个算法被称作ε-贪心算法,以贪心方式解决问题。现在如果你(销售人员)想要再次从位置A到F,你总是会选择相同的策略。


其他的旅行方式?


你可以猜测到我们的策略属于哪一个类别么(例如,纯探索vs纯开发)?


可以看出我们选择的并不是最优策略,我们必须去一点点“探索”来发现最优策略。在这里我们使用的方法是基于策略的学习,我们的任务是在所有可能策略中发现最优策略。解决这个问题有很多不同的方式,简单列举主要类别如下:


●    基于策略,重点是找到最优策略

●    基于价值,重点是找到最优价值,例如,累计奖励

●    基于动作,重点是在执行每一步动作时,确定什么是最优动作

 

我会尝试在以后的文章中更深入地讲述强化学习算法,那时,你们就可以参考这篇强化学习算法调查的文章(https://www.jair.org/media/301/live-301-1562-jair.pdf)。(译者注:这里是原文作者的一个笔误。Q-learning,它可以用一个线性函数作为function approximator, 也可以通过列举每一个q-state的值来做。用神经网络来做Q-learning的function approximator应该是15年Google Deepmind发表在Nature的文章开始的,那篇文章中称该算法为deep-Q-network,后来统称为deep q learning


4.强化学习的实践案例


我们会使用深度Q学习算法,Q学习是基于策略的,用神经网络来近似值函数的学习算法。Google使用该算法在Atari游戏中击败了人类。


让我们看看Q学习的伪代码:

  1. 初始化价值表‘Q(s,a)’.

  2. 观测到当前状态点’s’.

  3. 基于策略选择该状态下的行动’a’(例如,ε-贪心)

  4. 采取行动并观察奖励值’r’及新状态点’s’

  5. 根据上面描述的公式及参数,用观测到的奖励值及下一状态可能的最大奖励值更新状态点新值。

  6. 设置新状态,重复此流程直至到达最后目标点。

 

Q学习算法的简单描述可以总结如下:


该图是Q学习算法流程图


我们先看看什么是Cartpole问题,再继续编程提供解决方案


当我还是一个小孩的时候,我记得我会捡一根棍子试着用一只手让它保持平衡。我和我的朋友们一起比赛看谁让棍子保持平衡的时间最长就可以得到“奖励”,一块巧克力!


开始我们的代码前,我们需要先安装一些东西,


步骤1:安装keras-rl库

从终端运行以下命令:

git clone https://github.com/matthiasplappert/keras-rl.git
cd keras-rl
python setup.py install


步骤2:安装CartPole环境组件

假设你已经安装了pip,使用pip命令安装以下库

pip install h5py
pip install gym


步骤3:启动

首先我们要导入所需模块

import numpy as np
import gym

from keras.models import Sequential
from keras.layers import Dense, Activation, Flatten
from keras.optimizers import Adam

from rl.agents.dqn import DQNAgent
from rl.policy import EpsGreedyQPolicy
from rl.memory import SequentialMemory


然后设置相关变量

ENV_NAME = 'CartPole-v0'

# Get the environment and extract the number of actions available in theCartpole problem
env = gym.make(ENV_NAME)
np.random.seed(123)
env.seed(123)
nb_actions = env.action_space.n



下一步,我们创建一个简单的单隐层神经网络模型。

model = Sequential()
model.add(Flatten(input_shape=(1,) + env.observation_space.shape))
model.add(Dense(16))
model.add(Activation('relu'))
model.add(Dense(nb_actions))
model.add(Activation('linear'))
print(model.summary())


接下来,配置并编译我们的代理端。我们将策略设成ε-贪心算法,并且将存储设置成顺序存储方式因为我们想要存储执行操作的结果和每一操作得到的奖励。

policy = EpsGreedyQPolicy()
memory = SequentialMemory(limit=50000, window_length=1)
dqn = DQNAgent(model=model, nb_actions=nb_actions, memory=memory,nb_steps_warmup=10,
target_model_update=1e-2, policy=policy)
dqn.compile(Adam(lr=1e-3), metrics=['mae'])

dqn.fit(env, nb_steps=5000, visualize=True, verbose=2)


现在测试强化学习模型

dqn.test(env, nb_episodes=5, visualize=True)

This will be the output of our model:

这就是模型输出结果:


瞧!你构建了一个强化模型的雏形!



 5.增加复杂性


现在你已经有了一个强化学习的基础成品,让我们来进一步的每次增加一点点复杂度以解决更多的问题。


问题-汉诺塔

 


对于不知道该游戏的人简单说明一下——发明于1883年,由3根杆及一些逐增大小的圆盘(如上图中所示的3个一样)从最左边的杆开始,目标是从选择最小移动次数将所有圆盘从最左边移动到最右边(你可以从维基百科得到更多讯息(https://en.wikipedia.org/wiki/Tower_of_Hanoi))。


如果我们要映射这个问题,从定义状态开始:

●    开始状态 – 3个圆盘都在最左边杆上(从上到下依次为1、2、3)

●    结束状态 – 3个圆盘都在最右边杆上(从上到下依次为1、2、3)

 

所有可能的状态:

列举可能的27个状态:


All disks  in a rod

One disk  in a Rod

(13) disks  in a rod

(23) disks  in a rod

(12) disks  in a rod

(123)**

321

(13)2*

(23)1*

(12)3*

*(123)*

312

(13)*2

(23)*1

(12)*3

**(123)

231

2(13)*

1(23)*

3(12)*


132

*(13)2

*(23)1

*(12)3


213

2*(13)

1*(23)

3*(12)


123

*2(13)

*1(23)

*3(12)

图中(12)3*代表的是圆盘1和圆盘2依次在最左边杆上(从上到下),圆盘3在中间杆上,*表示最右边杆为空


数字奖励:

因为我们想以最少步数来解决问题,我们可以设定每一步的奖励为-1。


规则:

现在,不考虑任何技术细节,我们可以标记出在以上状态间可能出现的转移。例如从奖励为-1的状态(123)** 到状态 (23)1*,也可以是到状态(23)*1。


同样地,你看出了上面提到的27个状态的每一个都类似于之前销售人员旅行的示意图。我们可以根据之前的经验找出最优解决方案选择不同状态和路径。


问题 - 3 x 3 魔方


当我在为你解决这个问题的同时,也想要你自己也做一做。遵照我上面使用的相同步骤,你可以更好的理解和掌握。


从定义开始和结束状态开始,接下来,定义所有可能的状态和相应的状态转移奖励和规则。最后,使用相同的方法你可以提供解决魔方问题的方案。


6.强化学习的研究现状


你已经意识到了魔方问题的复杂度比汉诺塔高了好几个倍,也明白每次可选择的操作数是怎么增长的。现在想想围棋游戏里面状态数和选择,行动起来吧!最近谷歌DeepMind创建了一个深度强化学习算法打败了李世石!


随着近来涌现的深度学习成功案例,焦点慢慢转向了应用深度学习解决强化学习问题。李世石被谷歌deepmind开发的深度强化学习算法开打败的新闻铺天盖地袭来。同样的突破也出现在视频游戏中,已经逼近甚至超出人类级别的准确性。研究仍然同等重要,不管是行业还是学术界的翘楚都在共同完成这个构建更好的自我学习机器的目标。

 

图为李世石与AlphaGo参与围棋人机大战中


深度学习应用的主要领域如下:


●       游戏原理及多智能体交互

●       机器人学

●       计算机网络

●       车辆导航

●       医药学

●       行业物流

 

随着近期将深度学习应用于强化学习的热潮,毫无疑问还有许多未探索的事在等待着更多的突破来临!


其中一条最近的新闻:


7.其他资源


我希望现在你已经对强化学习怎么运行有了一个深入的了解。列举了一些可以帮你探索更多有关强化学习的其他资源:


  • 强化学习视频(https://www.analyticsvidhya.com/blog/2016/12/21-deep-learning-videos-tutorials-courses-on-youtube-from-2016/)

  • 介绍强化学习的书籍(https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf)

  • Github上强化学习的优秀资源(https://github.com/aikorea/awesome-rl)

  • David Silver强化学习课程(https://www.youtube.com/playlist?list=PLV_1KI9mrSpGFoaxoL9BCZeen_s987Yxb)

 

结束语


我希望你们能喜欢阅读这篇文章,如果你们有任何疑虑和问题,请在下面提出。如果你们有强化学习的工作经验请在下面分享出来。通过这篇文章我希望能提供给你们一

个强化学习的概况,以及算法如何实际实施的,希望对你们有用。


原文链接:https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/?winzoom=1

 



新一代技术+商业操作系统:

AI-CPS OS

     

新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能分支用来的今天,企业领导者必须了解如何将“技术”全面渗入整个公司、产品等“商业”场景中,利AI-CPS OS形成字化力量,实现行业的重新布局、企业的重新构建和自我的焕然新生,在行业、企业和自身三个层面勇立鳌头。


数字化力量与行业、企业及个人三个层面的交叉,形成了领导力模式,使数字化融入到领导者所在企业与领导方式的核心位置。

  • 分辨率革命种力量能够使人在更加真实、细致的层面观察与感知现实世界和数字化世界正在发生的一切,进而理解和更加精细地进行产品控制、事件控制和结果控制。

  • 复合不确定性:数字化变更颠覆和改变了领导者曾经仰仗的思维方式、结构和实践经验,其结果就是形成了复合不确定性这种颠覆性力量。主要的不确定性蕴含于三个领域:技术、文化、制度。

  • 边界模糊化:数字世界与现实世界的不断融合成CPS不仅让人们所知行业的核心产品、经济学定理和可能性都产生了变化,还模糊了不同行业间的界限。这种效应正在向生态系统、企业、客户、产品快速蔓延。


领导者无法依靠某种单一战略方法来应对多维度的数字化变革。随着变革范围不断扩大,一切都几乎变得不确定,即使是最精明的领导者也可能失去方向。面对新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能颠覆性的数字化力量,领导者必须在行业、企业与个人这三个层面都保持领先地位。


如果不能在上述三个层面保持领先,领导力将会不断弱化并难以维继: 

  • 重新进行行业布局:你的世界观要怎样改变才算足够?你必须对行业典范进行怎样的反思?

  • 重新构建你的企业:你的企业需要做出什么样的变化?你准备如何重新定义你的公司?

  • 重新打造新的自己:你需要成为怎样的人?要重塑自己并在数字化时代保有领先地位,你必须如何去做?


子曰:“君子和而不同,小人同而不和。”  《论语·子路》

云计算、大数据、物联网、区块链和 人工智能,像君子一般融合,一起体现科技就是生产力。


如果说上一次哥伦布地理大发现,拓展的是人类的物理空间。那么这一次地理大发现,拓展的就是人们的数字空间。

在数学空间,建立新的商业文明,从而发现新的创富模式,为人类社会带来新的财富空间。

云计算,大数据、物联网和区块链,是进入这个数字空间的船,而人工智能就是那船上的帆,哥伦布之帆!


人工智能通过三个方式激发经济增长:

  1. 创造虚拟劳动力,承担需要适应性和敏捷性的复杂任务,即“智能自动化”,以区别于传统的自动化解决方案;

  2. 对现有劳动力和实物资产进行有利的补充和提升,提高资本效率;

  3. 人工智能的普及,将推动多行业的相关创新,开辟崭新的经济增长空间。


新一代信息技术(云计算、大数据、物联网、区块链和人工智能)的商业化落地进度远不及技术其本身的革新来得迅猛,究其原因,技术供应商(乙方)不明确自己的技术可服务于谁,传统企业机构(甲方)不懂如何有效利用新一代信息技术创新商业模式和提升效率。


“产业智能官”,通过甲、乙方价值巨大的云计算、大数据、物联网、区块链和人工智能的论文、研究报告和商业合作项目,面向企业CEO、CDO、CTO和CIO,服务新一代信息技术输出者和新一代信息技术消费者。


助力新一代信息技术公司寻找最有价值的潜在传统客户与商业化落地路径,帮助传统企业选择与开发适合自己的新一代信息技术产品和技术方案,消除新一代信息技术公司与传统企业之间的信息不对称,推动云计算、大数据、物联网、区块链和人工智能的商业化浪潮。


给决策制定者和商业领袖的建议:


  1. 超越自动化,开启新创新模式:利用具有自主学习和自我控制能力的动态机器智能,为企业创造新商机;

  2. 迎接新一代信息技术,迎接人工智能:无缝整合人类智慧与机器智能,重新

    评估未来的知识和技能类型;

  3. 制定道德规范:切实为人工智能生态系统制定道德准则,并在智能机器的开

    发过程中确定更加明晰的标准和最佳实践;

  4. 重视再分配效应:对人工智能可能带来的冲击做好准备,制定战略帮助面临

    较高失业风险的人群;

  5. 开发人工智能型企业所需新能力:员工团队需要积极掌握判断、沟通及想象力和创造力等人类所特有的重要能力。对于中国企业来说,创造兼具包容性和多样性的文化也非常重要。


新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能作为新一轮产业变革的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎。

重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。

新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能正在经历从“概念”到“落地”,最终实现“大范围规模化应用,深刻改变人类生活”的过程。





产业智能官  AI-CPS



新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能),在场景中状态感知-实时分析-自主决策-精准执行-学习提升认知计算机器智能实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链




长按上方二维码关注微信公众号: AI-CPS,更多信息回复:


新技术“云计算”、“大数据”、“物联网”、“区块链”、“人工智能新产业:智能制造”、“智能驾驶”、“智能金融”、“智能城市”、“智能零售新模式:案例分析”、“研究报告”、“商业模式”、“供应链金融”、“财富空间”






本文系“产业智能官”(公众号ID:AI-CPS)收集整理,转载请注明出处!



版权声明产业智能官(公众号ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们,与您共同协商解决。联系、投稿邮箱:erp_vip@hotmail.com





登录查看更多
2

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【圣经书】《强化学习导论(2nd)》电子书与代码,548页pdf
专知会员服务
201+阅读 · 2020年5月22日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
专知会员服务
207+阅读 · 2019年8月30日
谷歌的 PlaNet 强化学习网络
AI研习社
4+阅读 · 2019年5月11日
强化学习的未来——第一部分
AI研习社
9+阅读 · 2019年1月2日
AlphaGo之父David Silver最新演讲,传授强化学习的十大原则
干货|浅谈强化学习的方法及学习路线
机器学习算法与Python学习
16+阅读 · 2018年3月28日
【强化学习】强化学习入门以及代码实现
产业智能官
18+阅读 · 2017年9月4日
技术 | 强化学习入门以及代码实现
AI100
51+阅读 · 2017年8月26日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
7+阅读 · 2018年12月5日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
5+阅读 · 2018年6月5日
Arxiv
9+阅读 · 2018年4月20日
VIP会员
相关VIP内容
【圣经书】《强化学习导论(2nd)》电子书与代码,548页pdf
专知会员服务
201+阅读 · 2020年5月22日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
专知会员服务
207+阅读 · 2019年8月30日
相关资讯
谷歌的 PlaNet 强化学习网络
AI研习社
4+阅读 · 2019年5月11日
强化学习的未来——第一部分
AI研习社
9+阅读 · 2019年1月2日
AlphaGo之父David Silver最新演讲,传授强化学习的十大原则
干货|浅谈强化学习的方法及学习路线
机器学习算法与Python学习
16+阅读 · 2018年3月28日
【强化学习】强化学习入门以及代码实现
产业智能官
18+阅读 · 2017年9月4日
技术 | 强化学习入门以及代码实现
AI100
51+阅读 · 2017年8月26日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员