几个月来,这位声称「AI 有意识」的工程师一直在与谷歌经理、高管和人力资源部门争吵,他的观点引发了学界广泛讨论,但在谷歌的职业生涯也终于结束了。
据持续跟踪报道的媒体 Big Technology 本周六称,公开声称谷歌大模型 LaMDA 对话式人工智能具有感知能力的工程师 Blake Lemoine 已被解雇。
6 月,在 Lemoine 就他因为「AI 人权」的担忧联系美国参议员办公室,并聘请律师代表谷歌 AI 对话系统 LaMDA 后,谷歌因违反保密协议给了 Lemoine 带薪休假的待遇。
谷歌发言人 Brian Gabriel 本周五通过电子邮件向 The Verge 发送了一份声明,部分证实了这次解雇,其中说道:「我们希望 Lemoine 一切顺利。」该公司还表示:「LaMDA 已经通过了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。」谷歌坚称其「广泛地」审查了 Lemoine 的说法,发现这些说法「完全没有根据」。
这与许多人工智能专家和伦理学家的态度一致。很多学者认为,鉴于当今的技术,Lemonie 的主张应该是不可能的。这名谷歌工程师曾声称,经过与 LaMDA 模型长期对话,他相信此 AI 已不仅仅是一个程序,它拥有了自己的想法和感受,而不是像原设计那样仅产生接近真人对话能力的程度。
Lemonie 认为,因为 AI 存在意识,因此谷歌研究人员应该在对 LaMDA 进行实验之前征得 AI 自身同意(Lemoine 本人被指派测试人工智能是否会产生仇恨言论),他在自己的 Medium 博客账户上发布了大量与 AI 对话的内容作为证据。
谷歌表示,预训练的 LaMDA 模型已被广泛应用于自然语言处理研究中,包括程序合成、零样本学习、风格迁移等方向。
在 Lemoine 事件被媒体广泛报道之后,很多 AI 领域学者纷纷亮出了自己的观点,前特斯拉 AI 总监 Andrej Karpathy 认为大模型表现出有意识的样子「细思恐极」,而在纽约大学教授 Gary Marcus 看来,LaMDA 肯定毫无感知力。
大多数人工智能专家认为,该行业距离让计算机获得认知能力还有很长的路要走。
以下是谷歌的完整声明,其中还提到了 Lemoine 指控该公司没有适当调查他的说法:
正如我们分享的人工智能准侧一样,谷歌非常重视人工智能的发展,并始终致力于负责任的创新。LaMDA 已经通过了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。如果有员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。我们发现 Blake 声称 LaMDA 有知觉的观点是完全没有根据的,并与他一起努力澄清了好几个月。
这些讨论是帮助我们负责任地创新的开放文化的一部分。因此,令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake 仍然选择持续违反明确的就业和数据安全政策,其中包括保护产品信息的需要。我们将继续精心开发语言模型,并祝 Blake 一切顺利。
https://www.theverge.com/2022/7/22/23274958/google-ai-engineer-blake-lemoine-chatbot-lamda-2-sentience
https://arxiv.org/abs/2201.08239
https://www.youtube.com/watch?v=ONloZfZEbUE
https://bigtechnology.substack.com/p/google-fires-blake-lemoine-engineer
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com