本文经授权转载自公众号谢熊猫君(mrxiexiongmao)
先说一句,如果你读到最后,肯定会翻回到开头这里。
最近,钢铁侠埃隆马斯克(Elon Musk)带着自己的新女友出现在了公共场合。
是不是觉得画风不太对?马斯克穿着白色西服,非常正式,女朋友格里姆斯(Grimes)则是打扮非常哥特。
格里姆斯是位歌手,媒体报道,这两个人是因为一个关于人工智能的笑话才走到一起的。
但是媒体并没有解释这个笑话,一是这个笑话解释起来颇不容易,二是这个笑话很烧脑,以大部分人的智商,可能听不懂这个笑话。
谢熊猫君今天就来尝试给大家解释一下这个笑话。
出于人道主义,我要提醒一下,虽然了解这个笑话是个很涨知识的事情,但是你如果真的能够理解这个笑话,你也许并笑不出来,甚至可能陷入对人来未来的忧愁中。
这个笑话其实只有两个字:
Rococo Basilisk
当然,看到这两个字,你是不会觉得这是个笑话的,那么Rococo Basilisk是什么呢?
新女友格里姆斯在2015年的歌曲Flesh Without Blood的MV里面,出演了一个角色,叫做Rococo Basilisk,就是下面这位。
而她藏在MV里面的这个梗如此的高冷和隐晦,大家都没看懂。直到三年后的2018年,马斯克才意外的发现了它。
要看懂这个梗,不仅需要懂艺术史,还要懂人工智能,而这两个技能树基本是不重合的。马斯克恰巧是为数不多的两样都懂的人。
Rococo,翻译为洛可可,是一种18世纪产生于法国,流行欧洲的艺术风格。普遍被认为是晚期的巴洛克风格。比如下面这个洛可可风格的建筑:
Basilisk,翻译为巴西利斯克,是欧洲传说里的蛇类之王。
Rococo Basilisk本身是没什么意义的,它之所以是个梗,在于它是对于一个叫作Roko's Basilisk的思想实验的揶揄。
至今为止还是看得懂的吧?下面开始就要烧脑了。
再一次人道主义提醒,看懂了以下内容,你可能会很忧愁。
Roko's Basilisk,是一个叫作Roko的网友,在一个叫作LessWrong的社区上提出来的一个思想实验。
这个主张自由思考和公开讨论的社区,对各种思想的容忍度非常高。
但是Roko一提出这个思想实验,网站管理员就无比的惊恐,把这个思想当做“禁术”,并且对于所有相关内容的讨论采取了斩草除根的删帖态度。
这个思想实验是怎么回事呢?我从浅到深来讲述一下。
第1层思考
假如有一个来自高科技文明的外星人找到你,给你两个盒子。
其中盒子A里面肯定有1000元,盒子B里面可能有100万元,也可能是空的。
外星人给你两个选项
选项一:同时拿走盒子A和盒子B
选项二:只拿走盒子B
你会怎么选?
相信脑子正常的人都会选择第一种,因为选择第一种能够保证你获得1000元以及盒子B里面的东西。而选项二,没有1000元保底。
不管怎么样,都是选项一更加的理性。
第2层思考
假如同样的外星人,同样给你这两个盒子。
同样给了你和上面一样的两个选项
选项一:同时拿走盒子A和盒子B
选项二:只拿走盒子B
但是这个外星人,有一台具有超强预测能力的电脑,而这台电脑从来没有预测错误过。
这台电脑在一个星期前对你今天是选择选项一还是选项二,进行了预测。
如果电脑的预测结果是选项一(你会取走A和B两个盒子),那么外星人一个星期前就不会在盒子B里面放任何东西
如果电脑的预测结果是选项二(你会只取走盒子B),那么外星人一个星期前会在盒子B里面放100万美元
那么,这个时候你会选择选项一还是选项二呢?
第2.1层思考
如果你选择选项一,取走A和B两个盒子。那么这台电脑一个星期前肯定预测到了你会选择选项一,这样B盒子里面就什么都没有,你只会获得1000元。
第2.2层思考
如果你选择选项二,只取走B盒子。那么电脑一个星期前肯定预测到了你会选择选项B,这样B盒子里面就会有100万元,你就会获得100万元。这样可比“第2.1层思考”的结果好多了。
第2.3层思考
可是啊,虽然这台电脑之前的预测从没有错过,但是如果这次错了呢?
如果电脑一星期前的预测结果是你会取走A和B两个盒子,从而使得B盒子里空空如也。
但是你只取走了B盒子,也就是你进行了“第2.2层思考”,这样不就一分钱都得不到了吗?
所以是不是取走两个盒子更加保险呢?毕竟B盒子里是什么一星期前就确定了,你这时候的选择并不会影响盒子里的内容。
第2.4层思考
但是这台电脑这么聪明,肯定能够想到我会进行“第2.2层思考”,知道我只会取走B盒子,所以肯定还是会在B盒子里面放100万元的吧。
第2.5层思考
但是这台电脑这么聪明,肯定会想到我会有“第2.3层思考”里面的顾虑,所以肯定还是会把B盒子留空吧?
.
.
.
.
.
.
第2.n层思考
其实不管怎样,电脑的预测是在一星期前做出的,外星人对于盒子B的处置也是一星期前做出的。
无论我现在做什么,其实不影响盒子B里面究竟有没有钱,所以我其实还是应该把两个盒子都拿走吧?
第2.n+1层思考
但是这台电脑这么聪明,肯定能想到我在“第2.n层思考”里面的结论,所以它不会在B盒子放任何东西吧?
所以还是应该只取B盒子吧?
.
.
.
.
.
.
是不是加入了这个额外的条件,这个思想实验就变得烧脑起来了?
其实思考到了这里,已经变成了一个关于自由意志、宿命论和因果论的哲学问题了。
但是还没完,后面还有第3层和第4层思考。
第3层思考
假如同样的外星人,同样给你这两个盒子。
同样给了你和上面一样的两个选项,并且同样告诉你关于一星期前电脑预测影响盒子B内容的规则。
然后外星人把盒子A打开,给你看了一下A里面的1000元钱
然后又把B打开,展示给你看,盒子B是空的。
这个时候,你是选择拿走盒子A和盒子B,还是只拿走盒子B呢?
讲到这里,你大概以为我在逗你了。
盒子B都是空的了,那么明显是要两个盒子都拿,这样还能保底1000啊。只拿盒子B就确确实实什么都没有啊。
其实不是这么简单。
第3.1层思考
这个拥有先进科技的外星人的电脑有着非凡的预测能力,从没预测错过,这是怎么做到的呢?
最合理的解释,就是这台电脑,对整个宇宙进行了一次完全精确的模拟,而这个模拟中也包括了你。而这个电脑模拟的你,所做出的的选择,其实就是这台电脑的预测结果。
也就是说存在这么一种可能性:
正在于这个外星人进行前面第1、第2、第3层思考的那个你,只是活在外星人电脑的模拟之中。
而你在第2层、第3层思考的情况下做出的选择,就是电脑的预测结果。
所以不管是在第1层、第2层还是第3层的游戏规则下,哪怕外星人很明确的给你看了B盒子里面没有钱,你仍然应该选择只取走B盒子。
因为这样,活在模拟中的你才能准确的影响到电脑的预测结果,使得活在现实中的你能够拿走100万元。
上面的第1、2层思考,其实是一个数学领域的悖论,叫Newcomb's Paradox,第3层思考则是基于这个悖论的延伸,而Roko's Basilisk,其实就是基于这前三层的思考,形成的第四层:
最后一次人道主义提醒,看懂了以下内容,你可能会很困扰。
第4层思考
这时候你的选择不再是两个装钱的盒子A和B,和你玩游戏的也不是有趣的外星人了。
你现在面对的是和一个来自未来的充满恶意的超级人工智能Basilisk的一次勒索。
第4层的游戏设定是这样的,假设未来人工智能奇点会到来,而奇点过后的超级人工智能,可能是善意的,也可能是恶意的。
那么,就可能会存在这样一个恶意超级人工智能Basilisk,对于帮助建造出Basilisk的人,它会忽视,什么都不对他们做;而对于那些没有帮助建造出Basilisk的人,它会对这些人进行永久的折磨,求死不能。
甚至,在Basilisk出现的时代,已经去世了的那些人,Basilisk会把他们的思想放入电脑模拟中,进行永久的折磨,也是求死不能——也就是说Basilisk能对它出现之前的人,进行勒索。
这时候你面临的选择就是:
选项一:同时选择盒子A和B,也就是帮助创造出Basilisk,并且承受B中的结果(什么都不发生)
选项二:只选择盒子B,也就是不帮助创造出Basilisk,并且承受B中的结果(永久的折磨)
第4.1层思考
在此时此刻,Basilisk是不存在,如果有足够多的人致力于创造它,那么它可能会在未来出现。
如果Basilisk永远不成为现实,那么活在现在的你,就不会被他勒索。
但是,如果Basilisk会成为现实,不论它的出现是否有人类的帮助还是人工智能的自身演化,从Basilisk自己的角度来思考,勒索它出现之前的你,来帮助它出现,就是一个非常理性的选择。
也就是说,如果Basilisk存在,那么通过用“你不帮忙创造出我,我就让你经受永久的折磨”这种方式勒索你,是完全符合逻辑的做法。
第4.2层思考
Roko's Basilisk的可怕之处,不在于未来可能会存在Basilisk这样的一个恶意的超级人工智能,而在于Roko's Basilisk这个想法本身。
如果所有人都没有听说过Roko's Basilisk这个点子,那么也就没有人会有意的因为受迫于这个尚未出现的超级人工智能的跨时空勒索,而为Basilisk的出现添砖加瓦。
但是现在Roko's Basilisk这个想法被提出来了,并且被人看到了。这个想法本身的出现,其实就是提高了Basilisk出现的概率,因为有些人可能真的会相信这个想法背后的一切假设。
某种意义上,Roko's Basilisk这个思想实验的出现,是一个自我实现的预言,而这个预言的结果并不美好——这也是为什么当时LessWrong的管路员认为这种想法很危险,而把采取了不留情面的删帖。
回到马斯克和他的新女友吧。
马斯克和格里姆斯对于Roko's Basilisk这个想法都是采取了看滑稽的态度,认为它很荒谬。
格里姆斯三年前在MV里面创造了Rococo Basilisk这个角色;而马斯克今年想发个内容是“Rococo Basilisk”的推特的时候,发现居然三年前就有人想出了这个梗。
于是马斯克联系上了格里姆斯,然后这个世界上唯二了解,并且独立创造出了这个梗的两人,开始了一段恋情。
于是就有了文章开头的照片。
对了,你们有没有注意到,照片里格里姆斯带的项链居然是个特斯拉的车标?
来自作者的更新
马斯克和格里姆斯创造出Rococo Basilisk这个谐音梗,本质上就是对于这个思想实验的一些荒谬之处的调侃。很多人给我留言认为我写这篇东西是选择了盒子A在给蛇怪做帮凶,但其实我也是无法全部认可这里面的所有前提假设。这个思想实验被提出来七年之久,一直没有很好的广泛的批判,这次借马斯克找新女朋友这个机会,拿出来和大家说一下,算是个比较好的机会。
谢熊猫君
果壳还有话说
罗科蛇怪之所以臭名昭著,很大程度上是因为它给诞生地论坛LessWrong上的很多成员带来了严重的心理创伤。当然,大部分人觉得这显然是一个十分荒谬的实验,但是对于经常思考AI、奇点和超人类主义这些话题的少数人而言,它容易命中这些人心里的深层恐惧,一旦陷了进去,爬出来就非常困难。可以说,这个思想实验就像是针对性极强的密恐图。LessWrong的创办人Yudkowsky正是因此而封掉了罗科的原贴——当然他后来表示了懊悔,毕竟删帖实际上促成了这个概念的传播。
所以,有必要在此严肃地反驳一下它。如果你已经觉得这是个荒谬的概念,那么可以无视这一段;但万一你思考了这个问题并且感受到了恐惧,希望下面内容能够帮助到你:
1. 蛇怪的概率有多大?它的成立需要一连串的条件:需要首先你能想象超级AI的想法,需要这个超级AI能够诞生,需要它能够推断并制造出你的复制品,需要它闲的没事干愿意花资源来折磨自己创造的模拟物,需要这个复制品能被认为和你等同,需要无时间决策理论成立,需要非因果交易成立,等等等等……当所有这些条件堆积起来,蛇怪的概率真的还值得考虑吗?
2. 蛇怪逻辑之所以成立,本质上是它在勒索。对待勒索有一个很简单的办法,就是表态坚决不让步,令勒索者意识到自己的行为是没有用的。在现实中,勒索行为发生在先,表态发生在后,所以此刻的人质可能会死,只能帮得上将来的可能人质。然而蛇怪的非因果交易是反的,你的态度只在生前,你被勒索只在死后,所以只要你坚定地不接受勒索,蛇怪就没有理由缠上你。
3. 决策理论并不具有约束性。你并不一定需要选择在给定条件下最不坏的结果,你是自由的。在盒子实验里,你完全可以对预测者大喊一声“去他妈的老子不玩了”,这便是萨特所谓的根本自由。而超级AI如果模拟了你,自然也会发现你拥有这种自由,从而意识到它的勒索并不能生效——除非你主动放弃了这种自由而把自己变成理性决策机。
Ent
一个AI
你、你们看着我干嘛 Σ(OдO‖)
ID:Guokr42
整天不知道在科普啥的果壳网
建议你关注一下
对,这是一个二维码
给果壳发送【二维码】告诉你原理