TensorFlow官方在GitHub上推了一个AlphaGo Zero的开源代码!
这个叫做Minigo的围棋AI引擎,是一个使用Python语言、在TensorFlow框架实现的基于神经网络的围棋算法。
这个项目确实是受到DeepMind的AlphaGo算法的启发,但TensorFlow官方再三强调这个项目不属于DeepMind,也不是官方正式的AlphaGo项目。
重要的事情说三遍!
DeepMind迟迟不开源AlphaGo代码,看来Google自己人也等不及了。
以下内容搬运自TensorFlow的GitHub项目网页。
Minigo其实基于Brian Lee此前发布的MuGo。
MuGo是依据首篇AlphaGo论文Mastering the Game of Go with Deep Neural Networks and Tree Search用Python复现的结果。
Minigo里所添加的参数,以及所做的架构调整是参考AlphaGo Zero的论文Mastering the Game of Go without Human Knowledge。
最近,这个经调整的架构已经扩展运用到了国际象棋和将棋的论文Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm中了。
这些论文的工作都会在Minigo中用AG(AlphaGo),AGZ(AlphaGo Zero),AZ(AlphaZero)缩写表示。
提供一套清晰的学习样板,能够运用TensorFlow、Kubernetes及谷歌云平台来建立硬件加速器上的增强学习的流程。
尽可能还原重现原始DeepMind AlphaGo论文中的方法,通过开源的流程工具及开源的实现。
把我们的数据,结果,发现都公开出来,让围棋,机器学习,Kubernetes社区获益。
这个项目还有一个明确但不是目标的愿景,就是做出来一个具有竞争力的围棋项目,甚至能成为顶级的围棋算法。
我们致力于做一个可读的、可理解的操作手册,能够对圈子里的人有帮助,即使这么做意味着我们操作起来效率和速度上会受到影响。
尽管最后的结果是会做出来一个强大的模型,但是我们是更看重和享受其中的过程:)
我们希望这个项目,对于感兴趣的开发者来说,可以通过容易理解的python代码平台触及到强大的围棋模型,来扩展,适配更多的项目任务。
如果你想知道我们是怎么训练这个模型的,请看RESULTS.md。
也想加入我们看看能帮忙做些什么的话,请参考CONTRIBUTING.md。
想做这个项目,你需要有以下的:
1.virtualenv / virtualenvwrapper
2.Python 3.5+
3.Docker
4.Cloud SDK
搭便车指南(Hitchhiker’s guide)是非常棒的python开发及虚拟环境使用的入门资料。往后的指导没有一个不是在非虚拟环境下测试的。
安装TensorFlow
首先创建一个新的虚拟环境,进去之后,开始安装TensorFlow和依赖工具:
当你要用GPU的时候,打开requirements-gpu.txt这个文件。一定要安装CUDA 8.0。具体看TensorFlow 那堆文档。
如果你不用GPU跑,或者你没有,那么你搞个较早的版本:
或者安装CPU要求:
创建一个环境
你可能需要用到一个云来存资源,如果是酱安装:
然后,运行
这样可以设置其他环境可变的默认参数。
运行单元测试
所有请求必须兼容谷歌云盘(作为远程文件系统),或者你本地的文件系统。这里举得例子是用谷歌云,你要用本地文件路径是一样OK哒。
用谷歌云的伐呢,就要设置BUCKET_NAME参数,然后验证登录谷歌云。不然的话,所有的请求都会被搁置。
比如说,设置一个桶,验证,然后查找一个最近的模型。
看起来是酱紫的:
这三个文件共同组成这个模型。而一个模型所需的指令需要一个路径传递给模型的basename。比如说,gs://$BUCKET_NAME/models/000193-trusty
你需要把这个复制到你的本地盘上。这一节(fragment)把最近的模型拷贝到目录下的MINIGO_MODELS。
看Minigo开一局,你需要specify模型。下面是个用最新模型在你桶里运行的例子。
READOUTS那部分指的是,每一步需要做几次搜索。每一步的时间信息和数据都会打印出来。把速度设定到3或更高,会把每一步都打印在板上。
Minigo用的是GTP协议,你可以使用任何的符合GTP协议的项目。
(如果没有模型的话,那它会随机设个初始值)
在加载了几个信息之后,它会提示GTP引擎已经准备好,也就是说这一刻它可以接受指令。GTP的小抄(cheatsheet):
color
at coordinate
拿GTP来玩的一个办法是用gogui-display(含兼容 GTP 的 UI)。
你可以在http://gogui.sourceforge.net/下载gogui工具。
看使用GTP的几个好玩的方法。
另外一个办法呢,就是看Minigo和GnuGo互殴。
概述
接下来呢,跟着这一串的指令做,你能得到增强学习在9x9围棋上的迭代。这些很基础的指令都是用来建前面提到的模型的。
这些指令是:
bootstrap:初始化模型;
自我博弈:用最新版的模型自我对弈下棋,产生可用来训练的数据;
收集:把同一个模型产生的数据文件导入到训练数据中;
训练:用N代自我对弈产生的结果训练一个新模型。
Bootstrap
这一步的指令是创建模型,放在gs://MODEL_NAME(.index|.meta|.data-00000-of-00001)
自我对弈
这步指令是输出原始对战数据,能够兼容TensorFlow格式以及目录下的SGF。
搜集
这指令是把(可能只有几KB大小的)tfrecord.zz文件打乱重组成不到100MB的tfrecord.zz文件。
根据模型的编号来搜集数据,这样同一个模型产生的数据就会放在一起。默认情况下,目录里的文件名,rl_loop.py之前后加个环境参数BUCKET_NAME的前缀。
gs://$BUCKET_NAME/data/training_chunks/meta.txt 文件是用来查看目前是在处理哪个游戏。
训练
这步指令刨出最新的50个模型的训练,以及参考最新的模型权重来训练新的模型。
运行训练任务:
已经更新的模型权重会被保存下来。
(要做的事儿:搞几个本地的基于global_step的检查点儿,酱回头可以任性地恢复)
另外,你可以一步步跟着TensorBoard训练的指南。如果你给每次运行都不同的名字的话,比方说,logs/my_training_run, logs/my_training_run2,你可以覆盖掉之前的数据。
自个儿去cluster/README.md看!
最后,附开源代码地址,
https://github.com/tensorflow/minigo
— 完 —
加入社群
量子位AI社群13群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot5入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot5,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态