一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

VIP内容

来自华为的研究人员在KDD2021上将给出关于反事实解释与XAI的教程,非常值得关注!

深度学习在许多领域都显示出了强大的性能,但其黑箱特性阻碍了其进一步的应用。作为回应,可解释人工智能应运而生,旨在解释深度学习模型的预测和行为。在众多的解释方法中,反事实解释被认为是最好的解释方法之一,因为它与人类的认知过程相似:通过构建对比情境来进行解释,人类可以认知地展示差异来解释其背后的机制。

在本教程中,我们将介绍反事实解释的认知概念和特点,反事实解释的计算形式,主流方法,以及在不同解释设置下的各种适应。此外,我们将展示几个流行研究领域的反事实解释的典型用例。最后,根据实践,我们概述了反事实解释的潜在应用,如数据增强或对话系统。我们希望本教程能帮助参与者对反事实解释有一个大致的了解。

https://sites.google.com/view/kdd-2021-counterfactual

反事实思维是人类理解世界的基本方式之一,因此,用反事实来解释机器学习和深度学习模型成为近年来的流行[4]。一个反事实的解释描述了一种因果情况,其形式为:“如果X没有发生,Y就不会发生”[20]。Judea pearl 将反事实定义为对“如果发生了什么”问题[15]的概率回答。反事实陈述是寻找特征值的最小变化,以便它可以将预测变成期望的输出。对于黑箱人工智能模型,反事实解释通常是通过从数据集中检索数据样本或通过扰动原始输入的特征生成样本,使这些数据样本的模型输出与原始输出相矛盾来获得。由于计算和应用以及反事实解释都与数据挖掘或数据处理密切相关,我们认为反事实解释符合数据挖掘社区的兴趣,因此值得在本教程中介绍。

成为VIP会员查看完整内容
0
36
Top