推荐!《综述:人工智能的心智理论和元推理》美国陆军研究实验室2022最新21页报告

2022 年 9 月 27 日 专知

1. 简介

心智理论(ToM)和元推理,正如下文所讨论的,已经成为人工智能(AI)和人-Agent团队的关注领域。两者都有希望通过从人类身上获取灵感,开发出更强大、更有协作性、甚至更像人类的系统。ToM,通过关注他人的心理状态(或其计算机类似物),以及元推理,作为对这些心理状态的一种推理形式。以下两节概述了心智理论(ToM)和元推理,包括在复杂环境中执行多域作战的多人/Agent系统的过去和潜在应用。

2. 心智理论

2.1 人类的心智理论

心智理论(ToM)在心理学中描述了人类描绘和推理他人心理状态的能力(Premack and Woodruff 1978)。这方面的一个标志是识别他人错误信念的能力,即一个人使用心智理论来识别世界的状态与另一个人的信念不一致。Sally-Anne测试(Wimmer和Perner,1983年)是评估这种识别错误信念能力的经典任务。在这项任务中,如图1所示,研究对象观看了Sally和Anne的一个场景,Sally把一个物品放在一个地方,然后离开。当Sally离开时,Anne将物品移到一个新的地方。当Sally回来时,被问及她将在何处寻找该物品。如果受试者行使了ToM,他们应该认识到Sally的错误信念,即物品仍然在原来的位置。否则,他们很可能会表明Sally会在物品的实际移动位置上寻找。

图1 通过错误信念任务评估ToM的Sally-Anne任务描述。(Baron-Cohen et al. 1985)。

像Sally-Anne任务这样的任务已经被用来表明,在年幼的儿童(Wellman等人,2001年)、自闭症患者(Baron-Cohen等人,1985年)和非人类动物中,ToM是不准确的或不可用的。然而,非陈述性任务(如Sally-Anne任务中不需要明确的答案,但可以测量,例如,看时间或第一次看场景中的位置)表明,这种类型的推理在较小的年龄,甚至在非人灵长类动物和鸟类中都是可用的(Baillargeon等人,2010;Horschler等人,2020;Hampton 2021)。研究人员还强调了测试中不确定性和互动性的重要性,在研究参与者和推理对象之间有更大的不确定性和知识不对称的环境中,以及在参与者和推理对象之间有更多互动的测试中,ToM更可能得到锻炼(Rusch等人,2020)。相反,如果ToM测试不包含足够的不确定性或知识不对称,则可能无法在其他环境中确实表现出ToM的参与者身上找到证据,大概是因为它们没有充分促使参与者考虑另一个人的观点。

最后,正如Blaha等人(2022)所强调的,那些能够在测试中表现出ToM证据的人,在现实世界的互动中往往不会有同样的表现。在一个交流游戏中,Keysar等人(2003)发现,神经正常的成年参与者在得到指导者的指示时,会表现得好像指导者拥有准确的知识,而他们(指导者)却已知缺乏甚至持有错误的信念。同样,Bryant等人(2013年)在一天中随机抽样评估了参与者在什么情况下考虑他人的心理状态的频率,他们发现参与者很少考虑心理状态,在社会交往中比独处时更少考虑心理状态,此外,比起其他人,他们更可能考虑自己的心理状态。这些结果表明,成年人可能会发现社会交往对认知的负担太重,而无法在即时考虑他人的心理状态时采用ToM。

2.2 人类心智理论的建模

对ToM进行计算建模通常是为了开发和测试ToM的认知理论,同时也是为了让我们建立能够与人类用户进行更自然和有效的互动的技术。这一领域的许多研究表明,贝叶斯模型可以提供令人印象深刻的ToM近似值(Baker等人,2017年;Csibra,2017年;关于应用贝叶斯推理的博弈论和K级思维方法,也请参见Yoshida等人,2008年和Robalino和Robson,2012年)。

这种贝叶斯推断通常是通过反强化学习(IRL)进行的。正如Jara-Ettinger(2019)所描述的,"预测其他人的行为是通过模拟具有假设的信念和欲望的RL模型来实现的,而心理状态推断则是通过反转这个模型来实现的"(p. 105),研究发现,"在简单的二维显示中,通过贝叶斯推理的IRL在推断人们的目标[Baker等人,2009]、信念[Baker等人,2017]、欲望[Jern等人,2017]和帮助性[Ullman等人,2009]时产生类似人类的判断"(p.105)。然而,反向贝叶斯推理需要强大的先验因素才能成功(Baker等人,2009)。虽然人类似乎也采用了强大的先验,虽然这些先验在新情况下可能并不总是很合理的,但它们至少在模型中是相当透明的。

作为IRL的一部分,部分可观察的马尔科夫决策过程(POMDPs)已被有效地用于模拟人类的ToM,其中Agent的行动在环境中是可观察的,但他们的信念和目标必须通过近似理性假设的逆向规划来推断。如图2所示,这种模型已被证明可以提供与人类相媲美的判断(Baker,2012)。例如,在Baker(2012)的研究中,人类参与者+POMDP模型观察了一个模拟的Agent在一个简单的有遮挡的地形上导航,以选择购买午餐的餐车,然后他们被要求对Agent的目标(即首选餐车)提供判断。在这种情况下,允许改变目标的模型的判断结果与人类的判断密切相关,而且比不允许改变目标或允许目标包括子目标的类似模型更好。这些结果表明,这样的模型可以人为地接近人类的判断,甚至可以被人类推理者使用。

图2 Baker(2012)假设的ToM因果图,其中观察到的(灰色)信息影响Agent的(未观察到的)信念、欲望和最终的行动,并以理性为中介。(图片经许可改编自Baker [2012]。)

类似的工作已经探索了更复杂的推理环境,例如使用元贝叶斯框架来模拟不同信任度条件下的人类ToM(Diaconescu等人,2014)。参与者玩了一个经济游戏,他们得到了(真实的、非社会的)概率信息,以帮助他们在二元彩票中做出选择,他们还得到了一个顾问的(社会的)信息,这个顾问帮助玩家的激励是不同的。人类的结果最好由一个层次模型来模拟,该模型可以为社会和非社会信息分配不同的权重,并允许根据过去表现的动态估计来推断顾问不断变化的目标。虽然这项工作和其他(例如Meinhardt-Injac等人,2018年)工作已经探讨了人类使用社会与非社会来源的线索进行推断,但研究似乎没有对涉及更多不确定信息来源的ToM以及人类如何优先考虑和纳入决策过程进行建模。

这些类型的ToM模型表明,消减模型的部分内容是可能的,而且结果是可以预测的。例如,如果人类在推理他人时使用贝叶斯先验,并且我们根据经验更新这些先验,可能有一些人无法有效地更新先验。事实上,这可能是精神分裂症的情况,人们对他人持有特别消极和怀疑的看法,而这些看法并没有通过积极的互动得到改善。另一方面,自闭症可能代表了整个ToM机制更普遍的消融(访问),因为自闭症患者在ToM的测试中往往表现不佳(TEDx Talks 2014;Prevost等人2015)。

2.3 机器的心智理论

计算性ToM也不是用来直接模拟人类的推理,而是作为一个框架,让Agent对其他Agent进行推理。此外,这样的Agent可能更容易解释,并促使更好的人与Agent的互动。ToM可以让Agent甚至在遇到其他Agent之前就持有关于他们适当的先验,更新关于他们的信念,并识别他们的错误信念。

这在Rabinowitz等人(2018)中得到了说明,在那里,模型学会了通过根据它们过去的行为预测它们的未来行为来识别不同种类的Agent(例如,一个物种倾向于追求附近的物体而不是遥远的物体)。值得注意的是,这项工作包括一项假想任务,即一个视力有限的Agent观察其最终目标物体,当它首先追求一个子目标物体时,该物体在Agent的视线内或视线外概率性地改变位置。观察到Agent在未观察到移动时比在观察到移动时更频繁地在其原始位置追踪最终目标对象。这表明,该模型学会了将其对环境的全部知识与Agent的有限知识分开,使其能够识别Agent的错误信念。

2.4 人类和机器之间的心智理论

当人类能够对机器的 "思想状态 "做出准确推断时,很可能会提高信任度和性能。这已经成为可解释人工智能领域内提高信任和性能的动力(Akula等人,2019)。同样,随着机器能够更准确地推断出人类的意图,它们的效用会增加,并进一步获得信任(Winfield 2018)。

3. 元推理(Metareasoning)

元推理是一个通用的人工智能术语,指的是在计算系统中 "思考问题 "。推理算法被用来做决策,而元推理算法被用来控制推理算法或在一组推理算法中进行选择,决定在不同情况下应该使用哪种决策方法(Cox and Raja 2011)。元推理的一个经典例子是确定推理算法在特定情况下应该停止还是继续(例如,Carlin 2012)。

元推理可以被描述为图3,其中推理发生在目标层,基于应用层的观察,在目标层做出的决策在应用层被制定。例如,当目标层的算法从传感器输入中确定有入侵者存在时,感应式警报可能会在应用层响起(例如,当在10秒内检测到两个或多个运动事件时,该算法可能会响起警报)。当来自目标层的信息在元层被观察和改变时,元推理就发生了。在前面的例子中,如果警报被频繁触发,元层的算法可能会调整警报的灵敏度,导致系列问题(例如,这个元层的算法可能会在目标层施加一个新的算法,只有在10秒内检测到三个或更多的运动事件时才会发出警报)。

图3 元推理的经典决策-行动循环图,推理发生在目标层面,以选择将发生在应用层的行动,而元推理发生在元层面,以控制发生在目标层面的行动。

完整中英文版请上专知查看!

专知便捷查看

便捷下载,请关注专知人工智能公众号(点击上方蓝色专知关注)

  • 后台回复“TOM” 就可以获取《推荐!【美国空军】《可靠自主性的分布式学习和控制器设计》24页“可靠自主性”项目技术报告,2022年8月》 专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
5

相关内容

《多域作战》北约2022最新19页报告
专知会员服务
76+阅读 · 2022年11月7日
北约《军事系统的网络安全风险评估》技术报告
专知会员服务
98+阅读 · 2022年4月18日
深度强化学习入门,这一篇就够了!
机器学习算法与Python学习
27+阅读 · 2018年8月17日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月21日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
《多域作战》北约2022最新19页报告
专知会员服务
76+阅读 · 2022年11月7日
北约《军事系统的网络安全风险评估》技术报告
专知会员服务
98+阅读 · 2022年4月18日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员