从α到μ:DeepMind棋盘游戏AI进化史

2020 年 2 月 4 日 机器之心

选自towardsdatascience

作者: Connor Shorten
机器之心编译
参与:Panda、蛋酱
alpha(α)是希腊字母表的第 1 个字母,代表起点;mu(μ)是第 12 个,代表中途。从书写了传奇的 AlphaGo 开始,DeepMind 一直在不断更新迭代这一系列的新算法,创造了 AlphaGo Zero、AlphaZero 和 MuZero。通用性更强的 MuZero 算法不仅能出色地掌握棋盘游戏,而且还在 57 款不同的 Atari 游戏上达到了超越人类的水平。
本文将简单介绍这些算法的演进历程。 未来,DeepMind 能否创造出这一系列的终极算法 OmegaZero 呢?


DeepMind 近期发布了他们开发的 MuZero 算法,并强调其在 57 款不同的 Atari 游戏上达到了超人类的水平。
 
能玩 Atari 游戏的强化学习智能体非常值得研究,这些游戏不仅视觉状态空间非常复杂,而且与国际象棋、日本将棋、围棋不一样的是,在 Atari 游戏中,智能体无法使用完美模拟器(perfect simulator)来执行规划。
 
「完美模拟器」的思想是推动 AlphaGo 及 AlphaGo Zero 和 AlphaZero 等后续进展的关键限制条件之一。 这使得这些智能体受限于国际象棋、日本将棋、围棋,对机器人控制等现实世界应用而言没什么用处。
 
以马尔可夫决策过程(MDP)为框架,可以将强化学习问题描述为:

国际象棋、日本将棋、围棋智能体带有一个知道如何去玩的模拟器

AlphaGo、AlphaGo Zero、AlphaZero 和 MuZero 系列算法对这一框架进行了扩展——使用了规划(planning),如下图所示:

通过整合规划来扩展强化学习问题框架。
 
DeepMind 的 AlphaGo、AlphaGo Zero 和 AlphaZero 使用了「(动作, 状态) → 下一个状态」这样的完美模型,以蒙特卡洛树搜索(MCTS)的形式执行前向规划。 在策略映射和价值估计方面,MCTS 能为深度神经网络提供完美的补充,因为它能平均化这些函数近似中的误差。 MCTS 为 AlphaZero 在下国际象棋、日本将棋、围棋方面提供极大的帮助,让其可以在完美的环境模型中执行完美的规划。
 
MuZero 利用 MCTS 规划的方式是通过学习一个动态模型,如下图所示:

MuZero 的蒙特卡洛树搜索。
 
MuZero 实现有参数模型映射 (s,a) → (s』, r) 的基于模型的强化学习方法是不完全重建 s' 处的像素空间。 可以将其与下面来自 Ha and Schmidhuber 的 World Models 的图像相对照:


基于模型的强化学习在模型中重建像素空间的示例,来自: https://worldmodels.github.io/。

来自 MuZero 的规划算法在 Atari 领域内非常成功,对强化学习问题具有非常巨大的应用潜力。 本文将解释 AlphaGo、AlphaGo Zero、AlphaZero 和 MuZero 一路以来的演化历程,以便让你更好地理解 MuZero 的工作方式。 这里有一段解释视频:


AlphaGo
 
AlphaGo 是该系列算法中的第一个,表明深度神经网络可以通过预测策略(从状态到动作的映射)和价值估计(从给定状态获胜的概率)来下围棋。 在给定状态下,这些策略和价值网络被用于选取之后的动作以及值得进一步探索的状态,进而增强基于树的前向搜索。
 
AlphaGo 使用了 4 个深度卷积神经网络、3 个策略网络和 1 个价值网络。 其中 2 个策略网络是使用专家下法的监督学习训练的。
 
监督学习的损失函数是由某些类型的 L(y』, y) 组成的。 在这里,y' 是指基于给定状态预测的策略网络的动作,y 是人类专业玩家在该状态下的动作。
 
rollout 策略是一个更小型的神经网络,其输入也是更小的状态表征。 由此造成的结果是 rollout 策略对专家下法的建模准确度显著低于更高容量的网络。 但是,这个 rollout 策略网络的推理时间(基于给定状态给出预测结果的时间)仅有 2 微秒,相比而言更大型的网络需要 3 毫秒,这使其在蒙特卡洛树搜索模拟中非常有用。


监督学习策略网络被用于初始化第 3 个策略网络,其是通过自对弈和策略梯度训练的。 策略梯度的思想是直接根据所得到的奖励来优化策略; 相比而言,其它强化学习算法则是学习一个价值函数,然后再根据该价值函数来使该策略贪婪。 这个策略梯度训练的策略网络可以与自身参数之前迭代版本进行对抗,优化自己的参数,然后选择能取得最终胜利的下法。 这种自博弈数据集然后再被用于训练一个价值网络,进而预测给定状态下一局游戏的获胜者。
 
AlphaGo 的最终力量源自将策略网络和价值网络组合到了 MCTS 中,如下图所示:


MCTS 的思想是执行提前搜索,以便更好地估计马上就要采取的动作。 这种搜索先从根节点(棋盘的当前状态)开始,然后通过选择一个动作来扩展该节点,然后再基于该状态所得到的状态和动作变换,重复这一操作。 MCTS 基于这一 Q + u(P) 项来选择所要跟踪的树的边,即价值网络对状态的估计、策略网络为该状态赋予的原始概率密度和节点已被访问次数的负加权(因为这要重复一次又一次)的加权组合。 AlphaGo 的独特之处是使用了 rollout 策略模拟来平均化价值网络的贡献。 这个 rollout 策略模拟会一直到 episode 结束,得到胜利或失败的结果; 并且其会通过一个额外的参数 lambda 与价值函数对该状态的估计融合到一起。

AlphaGo Zero
 
AlphaGo Zero 在 AlphaGo 的基础上实现了显著的提升,它更加通用,而且是从零人类知识开始的。 AlphaGo Zero 没有使用专家下法的监督学习来进行初始化,而是将价值网络和策略网络组合到了单个神经网络中。 相比于 AlphaGo 中所使用的更简单的卷积网络,该网络扩展到也可使用 ResNet。 ResNet 来执行价值映射和策略映射的优势是很显著的,下图比较了双任务 ResNet 与单任务 CNN:


AlphaGo Zero 最有趣的特点之一是其训练策略网络的方式,这种方式使用了 MCTS 找到的动作分布,如下图所示:


MCTS 通过使用其作为监督来更新策略网络,从而实现对策略网络的训练。 这是一个很聪明的想法,因为相比于直接从状态到动作进行映射,MCTS 能让策略网络通过前向搜索得到更好的动作分布。
 
AlphaZero
 
AlphaZero 是 AlphaGo 系列算法泛化到围棋之外的第一步,研究了下国际象棋和日本将棋所需的变化。 这需要为残差神经网络构建输入状态和输出动作表征。
 
在 AlphaGo 中,状态表征使用了一些人工设计的特征平面,如下所示:


AlphaGo Zero 则使用了更通用的表征,就是简单地通过传入双方玩家的前 8 步走子的位置和一个二元特征平面来告诉智能体它是哪一方玩家,如下所示:


AlphaZero 在国际象棋和日本将棋中使用了类似的思想来编码输入状态表征,如下所示:


AlphaZero 的算法也有一些细微的改变,比如宣布自博弈胜者的方式以及消除了围棋棋盘上的反转和旋转等数据增强方式。
 
MuZero
 
下面就是这一系列当前最佳的算法 MuZero。 MuZero 表现出了非常强大的泛化能力,并且无需完美模拟器也能进行学习。 国际象棋、日本将棋、围棋都是带有完美模拟器的游戏,也就是说你的任何动作都能导致棋盘上出现明确的且可观测的变化。 但是,对于非常复杂操作任务(比如 OpenAI 开发的那种操作魔方的机器手),情况却非如此,你很难知道向给定关节施加 30 牛顿的力会怎样。
 
下图给出了 MuZero 的关键思想:


图 A 给出了使用表征函数 h 将原始观察映射到隐藏状态 s0,然后再使用 s0 进行基于树的规划的流程。 在 MuZero 中,组合到一起的价值/策略网络在这个隐藏状态空间中执行推理,因此它不是将原始观察映射成动作或价值估计,而是以这些隐藏状态为输入。 动态函数 g 学习的是从隐藏状态和动作到未来隐藏状态的映射。
 
图 B 展示了与 AlphaGo Zero 首次引入的方法类似的训练策略网络的方式,即通过模仿 MCTS 所产生的动作分布。
 
图 C 展示了这个系统的训练方式。 这三个神经网络中的每一个训练目标,都联合了优化价值网络和实际返回结果之间的差异、动态模型经历和预测的中间奖励之间的差异、MCTS 动作分布和策略映射之间的差异。
 
表征函数 h 是如何在这个优化环路中完成训练的呢?
 
表征函数 h 通过「通过时间的反向传播」在这个联合优化方程中发挥作用。 假设你要求取 MCTS 动作分布 pi(s1) 和策略分布 p(s1) 之间的差。 p(s1) 的输出是 p(g(s0, a1)) 的一个结果,这又是 p(g(h(raw_input), a1)) 的一个结果。 这也是通过时间的反向传播向隐藏层送回更新信息的好方式。
 
AlphaGo → AlphaGo Zero → AlphaZero → MuZero


我希望这篇文章能帮你在 AlphaGo、AlphaGo Zero 和 AlphaZero 的背景中清楚理解 MuZero!

论文链接:

  • AlphaGo: https://www.nature.com/articles/nature16961

  • AlphaGo Zero: https://www.nature.com/articles/nature24270

  • AlphaZero: https://arxiv.org/abs/1712.01815

  • MuZero: https://arxiv.org/abs/1911.08265


原文链接: https://towardsdatascience.com/the-evolution-of-alphago-to-muzero-c2c37306bf9

文为机器之心编译,转载请联系本公众号获得授权
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
投稿或寻求报道:content @jiqizhixin.com
广告 & 商务合作:bd@jiqizhixin.com
登录查看更多
0

相关内容

AlphaGo 是一款人工智能围棋程序,由被 Google 收购的 DeepMind 公司开发。 2015年10月,AlphaGo v13 在与职业棋手、欧洲冠军 樊麾二段 的五番棋比赛中,以 5:0 获胜。2016年3月9日 - 15日,AlphaGo v18 在与韩国职业棋手 李世石九段 的五番棋比赛中,以 4:1 获胜,赛后,AlphaGo 荣获韩国棋院授予的「第〇〇一号 名誉九段」证书。2016年7月19日,AlphaGo 在 GoRantings 世界围棋排名中超过柯洁,成为世界第一。
最新《经济学中的强化学习》2020大综述,42页pdf128篇文献
深度强化学习策略梯度教程,53页ppt
专知会员服务
179+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
180+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
276+阅读 · 2019年10月9日
专知会员服务
208+阅读 · 2019年8月30日
快速上手深度强化学习?学会TensorForce就够了
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
【强化学习】如何开启强化学习的大门?
产业智能官
13+阅读 · 2017年9月10日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2019年7月29日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
4+阅读 · 2018年6月14日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
最新《经济学中的强化学习》2020大综述,42页pdf128篇文献
深度强化学习策略梯度教程,53页ppt
专知会员服务
179+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
180+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
276+阅读 · 2019年10月9日
专知会员服务
208+阅读 · 2019年8月30日
相关论文
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2019年7月29日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
4+阅读 · 2018年6月14日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
3+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员