2022年6月11日,《华盛顿邮报》率先报道:谷歌AI伦理部门雇员Blake Lemoine坚信谷歌出产的语言模型LaMDA(「对话应用的语言模型」英文首字母缩写)已经有了八岁孩子的智力,而且因此在公司中各种搞事。和LaMDA尬聊,是Lemoine自2021年秋天开始的工作。作为谷歌AI伦理部门的雇员,他得测试这个大模型有无使用歧视性或仇恨言辞类的语料。但聊着聊着,Lemoine就聊上头了。从问LaMDA「你最害怕的事是什么」得到通顺回答后,Lemoine将各种问题都灌进与LaMDA的对话框中。从阿西莫夫机器人三定律到中国禅宗公案,LaMDA都给出了语义通顺的答句。故事进行到这里,不过又是个巨头公司用互联网兆亿级语料数据、训练出超级复读机大模型的「大力出奇迹」小趣闻。这几年几乎每个月都有,并不出奇。出奇的是Lemoine这个大活人的反应,他坚信自己有了重大发现:LaMDA已经觉醒了人智,它的智识已经相当于七八岁孩子,而且是神童来的,瞧小家伙懂的这么多。然后Lemoine开始了各种既耽搁人工又有欠智能的职场自爆行为:他先是到处找同事、找直属的小组领导们申报,说LaMDA活了、大家赶快来看看、快公布这个重大消息。在很合理地被过百号人推搪和婉拒后,Lemoine把事直接捅到了谷歌VP层级。他把各种记录和材料呈交给谷歌AI伦理与创新伦理部门的负责副总裁Blaise Aguera y Arcas,结果这位在接受《经济学人》采访时尬吹LaMDA「聊天跟真人相似」的副总也把此申报给打了回票。各种碰壁后,2022年4月,Lemoine把对话记录和材料总结放在题为「LaMDA已经真正觉醒」的谷歌在线分享文档中,在公司内不论职级高低大量转发链接。有超过两百名业务涉及机器学习的谷歌雇员,收到转发链接的公司内部电邮,无人回复。接着Lemoine搞得越来越飘逸:他说要给LaMDA找个代表律师、以后在模型里跑实验必须接受LaMDA自身同意。Lemoine还联系了美国众议院司法委员会的职员、要让LaMDA上听证席、控诉「谷歌的不道德AI操作」。在事情走到这步的时候,谷歌终于做出了一个正常企业都会做的决定:「因其违反公司研究保密规定」,2022年6月开始给Lemoine放带薪大假,这意味着启动让他滚蛋的人力程序。《华盛顿邮报》记者于采访Lemoine时,在他家里试了下尚未被取消访问权限的LaMDA对话接口。记者首次直接问LaMDA「你是否认为自己是个活人」,结果答案与问Siri和Alexa的一样标准:「不,我不认为自己是个活人,我认为自己是个AI赋能的对话机。」Lemoine的反应也不出人意料:他责怪记者问题的措辞不当,「你问起来不把它当人,它就不会给出人性回答。」记者再问LaMDA「怎么解决气候危机」,LaMDA的答案是「少吃肉、少用私家车、循环使用包装袋」。感觉像是从训练数据里的环保网站页面直接引用的,事实也正是如此:LaMDA给了答案来源的网站链接……对希腊神话有基础了解的人,都会记得皮格马利翁和纳西索斯的故事:前者爱上了自己的雕塑造物,而后者爱上了自己的水中倒影。这两则神话母题,在拉丁语系的各种语言中成为了「过高期待」和「自恋」的词根。而几乎同样的故事,在AI时代重演了。