选自Science
作者:Matthew Hutson
机器之心编译
参与:张倩、路
「心智理论」一直被认为是人工智能无法掌握的能力,然而在 DeepMind 发表的论文《Machine Theory of Mind》中,研究人员提出了一种新型神经网络 ToMnet,具备理解自己以及周围智能体心理状态的能力。该论文已被 ICML 2018 接收为 Oral 论文。近日,这一研究又引起了《Science》的注意。
有时候,我们会觉得 Siri 或 Alexa 等数字助理非常令人失望,因为它们根本不懂我们人类。它们需要懂点被心理学家称为「心智理论」(theory of mind)的东西,搞清楚别人的信念和意图。最近,计算机科学家开发出了一种新的 AI,这种 AI 可以探测到其他计算机的「想法」,并预测它们的行动,这是机器之间以及机器与人之间灵活协作的第一步。
加州大学伯克利分校的发展心理学家 Alison Gopnik 表示,显然,要探索一个充满各种想法的世界,「掌握心智理论非常重要。」人在大约 4 岁的时候会了解到,他人的信念可能与现实不符,然后根据这个人的信念推断其接下来的行动。当前的计算机可以区分「开心」、「生气」等面部表情,这是一种与「心智理论」相关的技能,但是它们对人类的情绪、动机知之甚少。
这一新项目的初衷是尝试让人理解计算机。AI 使用的许多算法并不是完全由程序员完成的,而是依赖于机器在解决问题的过程中不断「学习」。计算机生成的解决方案通常是黑箱,由于算法过于复杂,人类往往难以理解。因此,DeepMind 研究科学家 Neil Rabinowitz 和他的同事创建了一个名为「ToMnet」的心智理论 AI,并使其观察其他 AI,看看它能否了解其他 AI 智能体的工作原理。
ToMnet 由三个神经网络组成,每个网络包含一些小的计算单元和从经验中学到的连接,与人类大脑类似。第一个网络根据其他 AI 过去的行动学习它们的倾向。第二个网络理解其他 AI 的当前「信念」;第三个网络接收前两个网络的输出,并根据情况推测其他 AI 的后续行动。
研究中涉及的 AI 智能体是在虚拟房间中到处移动收集彩色箱子以获取得分的简单「角色」。ToMnet 从上方观察整个房间。一次测试中有三种「角色」:一种看不到周围环境,一种记不住最近的步伐,一种可以看到也可以记住。看不到的智能体可能会沿着墙走,「失忆」智能体会移动到离它最近的物体处,而第三种能够构建子目标,以特定顺序有策略地抓取物体,得到更多分。DeepMind 研究人员在本月于瑞典斯德哥尔摩举办的 ICML 大会上报告称:经过一番训练,ToMnet 不仅能够在几步之后识别「角色」的种类,还能够准确预测它们的未来行为。
最终测试证明,ToMnet 甚至可以理解持有错误信念的「角色」,这是训练它们掌握心智理论(人类和其他动物具备的心智理论)的关键阶段。在该测试中,一种「角色」被编程设定为近视,那么当计算机在游戏中途改变道路(超出上述「角色」的视力范围)时,ToMnet 可以准确预测到,近视的「角色」更可能坚持原来的路径,而视力好的「角色」则更倾向于调整路径,适应新的情况。
Gopnik 称,该研究以及 ICML 会议上证明 AI 可以根据它们对自己的了解预测其他 AI 智能体行为的另一研究,都是神经网络「惊人」自主学习能力的例证。但是这仍然无法使人工智能体达到人类儿童的同等水平,Gopnik 说道,AI 智能体很可能以接近完美的准确率完成错误信念任务,即使它们之前从未遇到过。
MIT 心理学家、计算机科学家 Josh Tenenbaum 也研究心智理论的计算模型。他认为 ToMnet 在推断信念方面比他团队研发出的系统更高效,后者基于更抽象的概率推论,而不是神经网络。但是 ToMnet 的理解能力与训练所用语境相关性更强,因此它在全新环境中预测行为的能力欠佳,而 Josh Tenenbaum 的系统甚至儿童在这方面做得更好。Josh 称,未来两种方法结合或许会给该领域带来「真正有趣的方向」。
Gopnik 注意到这种具备社交能力的计算机不仅将改善人机合作,还会影响到人机之间的相互「欺骗」。如果一台计算机能够理解错误信念,那它就可能知道如何诱导人类相信它。希望未来的扑克机器人能够掌握 bluff(使诈)的艺术。
论文:Machine Theory of Mind
论文链接:https://arxiv.org/abs/1802.07740
摘要:心智理论(ToM; Premack & Woodruff, 1978)广义上指个体有能力理解他人的心理状态,包括期望、信念和意图。我们提出对机器进行训练,使之也具备这项能力。我们设计了一种心智理论神经网络 ToMnet,它使用元学习通过观察智能体的行为而对它们进行建模。通过该过程,该网络得到一个对智能体行为具备强大先验知识的模型,同时能够利用少量行为观测对智能体特征和心理状态进行更丰富的预测。我们将 ToMnet 应用于在 gridworld 环境中采取行动的智能体,结果表明该网络学会对来自不同群体的智能体进行建模,包括随机、规则系统和深度强化学习智能体等,该网络通过了经典的 ToM 任务,如"Sally-Anne"测试,即意识到他人持有的错误信念。我们认为该系统(自动学习如何对出现在其世界中的其他智能体进行建模)是开发多智能体 AI 系统的重要步骤,可以帮助构建人机交互的中介技术,推进可解释性 AI 的发展。
原文链接:http://www.sciencemag.org/news/2018/07/computer-programs-can-learn-what-other-programs-are-thinking
本文为机器之心编译,转载请联系本公众号获得授权。
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
投稿或寻求报道:content@jiqizhixin.com
广告 & 商务合作:bd@jiqizhixin.com