在《我的世界》里搭建神经网络,运行过程清晰可见,这位印度小哥开发的新玩法火了

2020 年 5 月 1 日 THU数据派

来源:量子位


本文约 1467字 ,建议阅读 4分钟
介绍一位来自印度的小哥Ashutosh Sathe做了MNIST手写数字分类网络,Sathe不仅放出了试玩视频,还开源了代码。

可能是疫情吧,大家在现实中行动受限,就越来越多去游戏世界中释放天性。

前有《我的世界》举办毕业典礼,后有《动物森友会》举办AI会议。最近《我的世界》又被大神带来了硬核玩法:

你以为他在涂鸦?不!其实他在进行神经网络的推理。

你如果是一个熟悉神经网络的人,想必已经猜出来了。

图片里这位玩家做的正是MNIST手写数字分类网络。

只需用剑在墙壁上画出数字,神经网络就能知道你写的是几。不仅仅如此,神经网络在推理过程中,哪些神经元被激活,都可以在这里看得一清二楚。

这个脑洞大开的玩家是一位来自印度的小哥Ashutosh Sathe,游戏项目叫做Scarpet-nn

Sathe不仅放出了试玩视频,还开源了代码,如果你是《我的世界》玩家+神经网络炼丹师,那么你也可以把自己的网络放在游戏里。

Scarpet-nn支持卷积层和完全连接层,允许在单个世界中运行多个神经网络。而且可以展示中间张量的逐块激活,甚至还能一次运行多个神经网络。

Sathe小哥到底是怎么想到用《我的世界》来搭建神经网络的呢?

像素风和神经网络是绝配

我的世界里那一个个像素色块简直就是显示3维数组的神器。如果一个长方体的每个小块都用不同颜色来展示数值,那么一个长方体就可以表示一个张量。

但是用表示的范围有限,我的世界地图里的资源也有限,在神经网络中显示BERT什么的显然不切实际。

所以用两种颜色的色块表示二值神经网络(BNN)最合适了。

BNN是一种高度简化的神经网络,权重和激活都只能取两个值:+1或-1。但是计算机中二进制的位表示是不同的。因此在BNN中,我们将+1存储为1为,将-1存储为0。

这样在BNN中乘法运算就变成了逻辑门中的同或运算,而逻辑门在《我的世界》中可以用红石电路造出。

至此,用《我的世界》搭建神经网络的理论基础已经完成,下面开始实际操作。

神经网络转像素模块

我们需要在电脑上安装《我的世界》Java版,第三方Mod也是必不可少的。在这个项目里,我们要安装Litematicacarpetmod两个Mod。

另外还需要通过Python3安装PyTorchnbtlib

接下来就是“炼丹”,先在PyTorch里训练好你的二值神经网络。

Litematica是一个帮助用户从零开始绘制示意图的模块,它可以准确地构建结构,指定将块放置在何处。


运行modeltolitematica.py将神经网络的所有层转换为不同的Litematica示意图。每个示意图仅包含一层神经网络。

图中以紫色表示+1的块,以绿色代表-1的块。

在这一步后,你会获得一组示意图文件,后缀名为.litematica。文件的名称和你命名的网络层相同,比如conv1.weight.litematica、fc2.weight.litematica等等。将相应文件导入即可。


把神经网络铺在地上

由于卷积层会出现4维数组,这在3维空间里是没法表示的,因此这个过程中还加入了压缩。

一般卷积层的形式是:[c2, c1, fh, fw]。其中c2是输出激活的通道数量,c1是输入激活的通道数量fhfw是卷积滤波器的高度和宽度。

通过scarpet-nn将后两个维度乘起来,变成[c2, c1, fh× fw],这样就解决了3维显示问题。

而全连接层都是2维的,不存在不能显示的状况,因此不需要做任何调整。

然后你就可以在空地上绘制一张16×16的输入图像了。

将卷积层导入地图后,你就可以进行神经网络运算了。

最后,作者还给出了一个MNIST示意图MineCraft文件包,如果只想简单看看实际运行效果,可以在我们的公众号中回复我的世界获取。

不得不说,《我的世界》里大神太多,之前有复旦本科生从零计算机,现在又有印度小哥从零打造神经网络。

(相关阅读:在《我的世界》里从零打造一台计算机有多难?复旦本科生大神花费了一年心血

只是现在的模块还不能在《我的世界》里训练神经网络,相信在这些大神的努力下,未来用《我的世界》炼丹也不是梦。

传送门

博客地址:
https://ashutoshbsathe.github.io/scarpet-nn/scarpet-apps/twoclassmnist/

Litematica下载地址:
http://minecraft.curseforge.com/projects/litematica

源代码:
https://github.com/ashutoshbsathe/scarpet-nn

——END——


登录查看更多
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
专知会员服务
31+阅读 · 2020年4月24日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
119+阅读 · 2020年1月15日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
188+阅读 · 2019年12月28日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
【电子书】Flutter实战305页PDF免费下载
专知会员服务
22+阅读 · 2019年11月7日
100行Python代码,轻松搞定神经网络
大数据文摘
4+阅读 · 2019年5月2日
R_leaflet包_最易上手地图教程(一)
R语言中文社区
10+阅读 · 2019年3月6日
详解LSTM:神经网络的记忆机制是这样炼成的
人工智能头条
5+阅读 · 2018年2月1日
Python除了不会生孩子,其他的都会了!
全球人工智能
3+阅读 · 2017年11月9日
一张通往计算机世界的地图
中科院物理所
8+阅读 · 2017年10月12日
MATLAB人工神经网络教程
七月在线实验室
8+阅读 · 2017年9月6日
Caffe 深度学习框架上手教程
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月12日
Arxiv
11+阅读 · 2019年6月19日
Neural Approaches to Conversational AI
Arxiv
8+阅读 · 2018年12月13日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
5+阅读 · 2017年12月29日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2020年4月24日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
【斯坦福新课】CS234:强化学习,附课程PPT下载
专知会员服务
119+阅读 · 2020年1月15日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
188+阅读 · 2019年12月28日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
【电子书】Flutter实战305页PDF免费下载
专知会员服务
22+阅读 · 2019年11月7日
相关资讯
100行Python代码,轻松搞定神经网络
大数据文摘
4+阅读 · 2019年5月2日
R_leaflet包_最易上手地图教程(一)
R语言中文社区
10+阅读 · 2019年3月6日
详解LSTM:神经网络的记忆机制是这样炼成的
人工智能头条
5+阅读 · 2018年2月1日
Python除了不会生孩子,其他的都会了!
全球人工智能
3+阅读 · 2017年11月9日
一张通往计算机世界的地图
中科院物理所
8+阅读 · 2017年10月12日
MATLAB人工神经网络教程
七月在线实验室
8+阅读 · 2017年9月6日
Caffe 深度学习框架上手教程
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月12日
Top
微信扫码咨询专知VIP会员