摘要

DARPA 于 2015 年制定了可解释人工智能 (XAI) 计划,旨在使最终用户能够更好地理解、信任和有效管理人工智能系统。 2017年,为期四年的XAI研究计划开始。现在,随着 XAI 在 2021 年结束,是时候反思什么成功了,什么失败了,以及学到了什么。本文总结了 XAI计划的目标、组织和研究进展。

1 XAI计划创建背景

机器学习的巨大成功创造了新的人工智能 (AI) 能力的爆炸式增长。持续的进步有望产生能够自行感知、学习、决策和行动的自主系统。这些系统提供了巨大的好处,但它们的有效性将受到机器无法向人类用户解释其决策和行动的限制。这个问题对美国国防部 (DoD) 尤其重要,它面临着需要开发更智能、自主和可靠系统的挑战。可解释的人工智能对于用户理解、适当信任和有效管理新一代人工智能合作伙伴至关重要。

可解释性问题在某种程度上是人工智能成功的结果。在人工智能的早期,主要的推理方法是逻辑和符号。这些早期系统通过对(某种程度上)人类可读符号执行某种形式的逻辑形式来进行推理。早期系统可以生成其推理步骤的痕迹,然后可以成为解释的基础。因此,在如何使这些系统可解释方面进行了大量工作(Shortliffe & Buchanan, 1975; Swartout, Paris, & Moore, 1991; Johnson, 1994; Lacave & D´ıez, 2002; Van Lent, Fisher, & Mancuso , 2004)。

然而,这些早期的人工智能系统是无效的;事实证明,它们的建造成本太高,而且对于现实世界的复杂性来说太脆弱了。 AI 的成功伴随着研究人员开发了新的机器学习技术,这些技术可以使用他们自己的内部表示(例如,支持向量、随机森林、概率模型和神经网络)来构建世界模型。这些新模型更有效,但必然更不透明且难以解释。

2015 年是 XAI 需求的转折点。数据分析和机器学习刚刚经历了十年的快速发展(Jordan & Mitchell,2015)。在 2012 年突破性的 ImageNet 演示之后,深度学习革命才刚刚开始(Krizhevsky、Sutskever 和 Hinton,2012 年)。大众媒体对超级智能 (Bostrom, 2014) 和即将到来的 AI 启示录(Apocalypse) (Gibbs, 2017, Cellan-Jones, 2014, Marr, 2018) 充满活力猜测。每个人都想知道如何理解、信任和管理这些神秘的、看似高深莫测的人工智能系统。

2015 年还出现了提供可解释性的初步想法。一些研究人员正在探索深度学习技术,例如使用反卷积网络来可视化卷积网络的层级(Zeiler & Fergus,2014)。其他研究人员正在寻求学习更多可解释模型的技术,例如贝叶斯规则列表 (Letham, Rudin, McCormick, & Madigan, 2015)。其他人正在开发与模型无关的技术,可以用机器学习模型(作为黑盒)进行试验,以推断出近似的、可解释的模型,例如 LIME(Ribeiro、Singh 和 Guestrin,2016 年)。还有一些人评估可解释交互的心理和人机交互因素(Kulesza、Burnett、Wong 和 Stumpf,2015 年)。

DARPA 花了一年时间调查研究人员,分析可能的研究策略,并制定计划的目标和结构。 2016 年 8 月,DARPA 发布 DARPA-BAA-16-53 征集提案。

2 XAI计划目标

可解释人工智能 (XAI) 的既定目标是创建一套新的或改进的机器学习技术,以产生可解释的模型,当与有效的解释技术相结合时,使最终用户能够理解、适当地信任和有效地管理新一代人工智能系统。

XAI 的目标是最终用户,他们依赖于 AI 系统产生的决策或建议,或者它采取的行动,因此需要了解系统的基本原理。例如,从大数据分析系统接收建议的情报分析师需要了解它为什么建议某些活动,需要进行进一步调查。同样,执行自主系统任务的操作员需要了解系统的决策模型,以便在未来的任务中适当地使用它。 XAI 的概念是为用户提供解释,使他们能够了解系统的整体优势和劣势;传达对其在未来/不同情况下的表现的理解;并且可能允许用户纠正系统的错误。

XAI 计划假设机器学习性能(例如,预测准确性)和可解释性之间存在固有矛盾关系,这一问题与当时的研究结果一致。通常性能最高的方法(例如深度学习)是最难解释的,而最可解释的(例如决策树)是最不准确的。该计划希望创建一系列新的机器学习和解释技术,为未来的从业者提供更广泛的设计选项,涵盖性能-可解释性交易空间。如果应用程序需要更高的性能,XAI 产品组合将包括更可解释、高性能的深度学习技术。如果应用系统需要更多的可解释性,XAI 将包括性能更高、可解释的模型。

3 XAI计划结构体系

该计划分为三个主要技术领域(technical areas,TAs),如图 1 所示:(1)开发新的 XAI 机器学习和可解释技术以产生有效的解释性;(2)通过总结、延伸和应用可解释心理学理论,来理解可解释心理; (3) 在两个挑战问题领域评估新的 XAI 技术:数据分析和自主性。

图1:DARPA的XAI计划结构,包括技术领域(TAs)和评估框架

最初的计划时间表包括两个阶段:第一阶段,技术演示(18 个月);第 2 阶段,比较评估(30 个月)。在第一阶段,开发人员被要求针对他们自己的测试问题展示他们的技术。在第 2 阶段,最初的计划是让开发人员针对政府评估人员定义的两个常见问题之一(图 2)测试他们的技术。在第 2 阶段结束时,预计开发人员将向开源 XAI 工具包贡献原型软件。

图2:面临的挑战问题

4 XAI计划开发

2017年5月,XAI计划开始启动。选择了 11 个研究团队来开发可解释学习器 (TA1),并选择了一个团队来开发可解释的心理模型。评估由美国海军研究实验室提供。以下总结了这些进展以及该计划结束时这项工作的最终状态。 Gunning 和 Aha,2019 年给出了 2018 年底 XAI 发展的中期总结。

4.1 XAI可解释的学习方法(XAI Explainable Learner Approaches)

该计划预计研究人员将调查训练过程、模型表示,以及重要的解释交互。为模型表示设想了三种通用方法。可解释的模型方法将寻求开发对机器学习专家来说本质上更易于解释和更内省的 ML 模型。深度解释方法将利用深度学习或混合深度学习方法来产生除预测之外的解释。最后,模型归纳技术将从更不透明的黑盒模型创建近似可解释的模型。解释交互被认为是 XAI 的一个关键元素,将用户连接到模型,使他们能够理解决策过程并与之交互。

随着研究的进展,11 个 XAI 团队探索了许多机器学习方法,例如易处理的概率模型 (Roy et al. 2021) 和因果模型 (Druce et al. 2021) 以及强化学习算法生成的状态机等解释技术(Koul et al. 2019, Danesh et al. 2021), 贝叶斯教学 (Yang et al. 2021), 视觉显著图 (Petsiuk 2021, Li et al. 2021, Ray et al. 2021, Alipour et al. 2021, Vasu et al. 2021),以及网络和 GAN 解剖 (Ferguson et al. 2021)。也许最具挑战性和最独特的贡献来自机器学习和解释技术的结合,以进行精心设计的心理实验来评估解释的有效性。

随着计划的推进,我们也对用户范围和开发时间线有了更深入的了解(图 3)。

图3: XAI用户和开发时间表

4.2 解释的心理学模型(Psychological Models of Explanation)

该计划需要对解释有扎实的心理学理论支持。选择了一个团队来总结当前的解释的心理学理论,以协助 XAI 开发人员和评估团队。这项工作始于对解释心理学的广泛文献调查以及之前关于 AI 可解释性的工作(IHMC 文献调查的参考资料)。最初,该团队被要求(1)对当前的解释理论进行总结,(2)根据这些理论开发一个解释的计算模型; (3) 根据 XAI 开发人员的评估结果验证计算模型。开发计算模型被证明是一座太极端的桥梁,但该团队确实对该领域有深入的了解并成功地制作了描述性模型。这些描述性模型对于支持有效的评估方法至关重要,这些评估方法涉及精心设计的用户研究,按照美国防部人体研究指南进行。图4说明了 XAI 解释过程的顶级描述模型。

图 4:解释心理模型。黄色框说明了基本过程。绿色方框说明了测试标准。白框说明了潜在的结果。

4.3 评估

最初设想评估基于数据分析和自主性领域内的一组常见问题。然而,很快就很清楚,在广泛的问题领域中探索各种方法会更有价值。为了评估该计划最后一年的表现,由美国海军研究实验室 (NRL) 领导的评估小组开发了一个解释评分系统 (ESS)。基于一组领域专家的建议并使用内容有效性比 (CVR) 进行验证,ESS 提供了一种用于评估 XAI 用户研究设计的定量机制。 ESS 评估用户研究的多个要素,包括任务、领域、解释、解释交互、用户、假设、数据收集和分析。 XAI 评价指标如图 5所示,包括功能性指标、学习绩效指标和解释有效性指标。仔细设计用户研究以准确评估解释的有效性至关重要。通常,评估 XAI 算法的性能需要多种类型的度量(参见性能、功能、解释有效性)。 XAI 用户研究设计可能很棘手,通常在该计划中最有效的团队拥有具有丰富心理学专业知识的人员。

图5:XAI算法的评估措施

5 XAI计划开发方法

XAI计划探讨了许多方法,如表1所示。

表1: DARPA XAI计划的技术方法

6 XAI结果与经验教训

在该计划期间进行了三项主要评估:一项在第 1 阶段,两项在第 2 阶段。为了评估 XAI 技术的有效性,该计划的研究人员设计并执行了用户研究。用户研究仍然是评估解释的黄金标准。在 XAI 研究人员进行的用户研究中,大约有 12,700 名参与者,其中包括大约 1900 名受监督的参与者,其中个人由研究团队指导(例如亲自或在 Zoom 上)和 10800 名无监督的参与者,其中个人自我通过实验进行指导,并且没有受到研究团队(例如 Amazon Mechanical Turk)的积极指导。根据美国国防部 (DoD) 资助的所有人类受试者研究的政策,每个研究方案都由当地机构审查委员会 (IRB) 审查,然后国防部人类研究保护办公室审查方案和当地 IRB 调查结果。

在这些用户研究过程中,确定了几个关键要:

  • 与只提供决策的系统相比,用户更喜欢为决策提供解释的系统。解释提供最大价值的任务是用户需要了解 AI 系统如何做出决策的内部工作原理的任务。 [由跨执行者团队的 11 项实验支持]

  • 为了让解释提高用户任务表现,任务必须足够困难,使得AI 解释会有所帮助。 [PARC, UT Dallas]

  • 用户认知负荷会阻碍用户解读解释的表现。结合上一点,需要对解释和任务难度进行校准,以提高用户表现。 [UCLA, Oregon State]

  • 当 AI 不正确时,解释更有帮助,并且对边缘情况特别有价值。 [UCLA, Rutgers]

  • 解释有效性的衡量标准会随着时间而改变。 [Raytheon, BBN]

  • 与单独的解释相比,可取性(advisability)可以显着提高用户的信任度。 [UC Berkeley]

  • XAI 可用于测量和调整用户和 XAI 系统的心智模型。 [Rutgers, SRI]

  • 最后,由于 XAI 的最后一年发生在 COVID-19 大流行时期,我们的执行团队开发了设计 Web 界面的最佳实践,以便在难于面对面研究的情况下进行 XAI 用户研究。 [OSU, UCLA] Dikkala 2021

如前所述,学习表现和可解释性之间似乎存在一种自然的矛盾关系。然而,在整个计划过程中,我们发现了可解释性可以提高性能(Kim et al. 2021, Watkins et al. 2021)。从直观的角度来看,训练系统以产生解释,通过额外的损失函数、训练数据或其他机制来提供额外的监督,以鼓励系统学习更有效的世界表征。虽然这可能并非在所有情况下都是正确的,并且在可解释的技术何时将具有更高性能时仍有大量工作要做,但它提供了希望,未来的 XAI 系统可以在满足用户解释需求的同时比当前系统具有更高的性能。

7 2021 年 DARPA 计划之后的世界状况、AI和 XAI

XAI 目前没有通用的解决方案。如前所述,不同的用户类型需要不同类型的解释。这与我们与其他人互动时所面临的没有什么不同。例如,考虑一名医生需要向其他医生、患者或医学审查委员会解释诊断。或许未来的 XAI 系统将能够自动校准并向大量用户类型中的特定用户传达解释,但这仍然远远超出了当前的技术水平。

开发 XAI 的挑战之一是衡量解释的有效性。 DARPA 的 XAI 计划帮助开发了该领域的基础技术,但还需要做更多的工作,包括从人为因素和心理学界中汲取更多信息。需要开发者社区很好地建立、易理解和易实施的解释有效性衡量标准,才能使有效的解释成为 ML 系统的核心能力。

加州大学伯克利分校的结果 (Kim et al. 2021) 证明了可取性(AI 系统从用户那里获取建议的能力)提高了用户的信任度,这很有趣。当然,用户可能更喜欢可以快速纠正系统行为的系统,就像人类可以相互提供反馈一样。这种可以产生和消费解释的可取的人工智能系统将是实现人类和人工智能系统之间更紧密合作的关键。

为了有效地开发 XAI 技术,需要跨多个学科的密切合作,包括计算机科学、机器学习、人工智能、人为因素和心理学等。这可能特别具有挑战性,因为研究人员倾向于专注于单个领域,并且经常需要推动跨领域工作。也许将来会在多个当前学科的交叉点上创建一个特定于 XAI 的研究学科。为此,我们致力于创建一个可解释的 AI 工具包 (XAITK),它将各种程序工件(例如代码、论文、报告等)和从 DARPA 为期四年的 XAI 计划中吸取的经验收集到一个公开的可访问的位置(Hu et al. 2021,网址https://xaitk.org/ )。我们相信,在操作环境中部署 AI 功能并需要在广泛的现实条件和应用领域中验证、表征和信任 AI 性能的任何人都会对该工具包产生广泛的兴趣。

与 2015 年相比,今天我们对 AI 的理解更加细致入微、不那么戏剧化,或许也更加准确。我们当然对深度学习的可能性和局限性有了更准确的理解。人工智能的末日已经从迫在眉睫的危险变成了遥远的好奇。同样,XAI 计划对 XAI 产生了更细致入微、不那么戏剧化、或许更准确的理解。该计划无疑起到了促进 XAI 研究(包括计划内部和外部)的作用。结果对 XAI 的使用和用户、XAI 的心理、衡量解释有效性的挑战以及产生新的 XAI ML 和 HCI 技术组合有了更细致的理解。当然还有更多工作要做,特别是随着新的人工智能技术的开发,这些技术将继续需要解释。 XAI 将在一段时间内继续作为一个活跃的研究领域。作者认为,XAI 计划通过为开展这项工作奠定了基础,做出了重大贡献。

成为VIP会员查看完整内容
186

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
英国国防部《人类增强——新范式的黎明》,110页pdf
专知会员服务
32+阅读 · 2022年4月16日
DARPA可解释人工智能
专知会员服务
126+阅读 · 2020年12月22日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
专知会员服务
99+阅读 · 2020年3月19日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
163+阅读 · 2019年12月21日
DeepMind的AI能指导人类的直觉吗?
AI前线
0+阅读 · 2022年3月21日
国家自然科学基金
289+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
1+阅读 · 2022年4月20日
Arxiv
35+阅读 · 2021年8月2日
Arxiv
103+阅读 · 2021年6月8日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
14+阅读 · 2020年10月26日
VIP会员
相关基金
国家自然科学基金
289+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
1+阅读 · 2022年4月20日
Arxiv
35+阅读 · 2021年8月2日
Arxiv
103+阅读 · 2021年6月8日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
14+阅读 · 2020年10月26日
微信扫码咨询专知VIP会员