【导读】人工智能领域的国际顶级会议 AAAI 2019 即将于 1 月 27 日至 2 月 1 日在美国夏威夷举行。AAAI2019第一天的关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,是构建可解释模型的重要指南.
AI系统--我如何信任它们?
在现实生活中,每一个决策,无论是由机器还是低级员工又或是首席执行官做出的,为了达到提高整体的业务水平的目的,都要通过定期的审查,来解释他们的决定。这就产生了人工智能的新兴分支,称为“可解释的人工智能”(XAI)。
什么是可解释的AI(XAI)?
XAI是人工智能的一个新兴分支,用于解释人工智能所做出的每一个决策背后的逻辑。下图是对一个完整AI决策流程的简单描述。
AAAI 2019 tutorial: 可解释AI –从理论到动机,应用和局限性
一、本教程希望为以下问题提供答案:
什么是可解释的AI (XAI)?
什么是可解释的AI(简称XAI),即人工智能社区的各种流程 (Machine Learning, Logics, Constraint Programming, Diagnostics)的解释是什么?解释的度量标准是什么?
我们为什么要在意?
为什么可解释的人工智能很重要?甚至在某些应用中至关重要?解释人工智能系统的动机是什么?
它在哪里至关重要?
在现实世界中,哪些应用程序需要解释如何大规模部署AI系统?
它是如何工作的?
在计算机视觉和自然语言处理中,最前沿的解释技术是什么?对于哪种数据格式、用例、应用程序、行业,哪些方法效果好,哪些方法效果不好?
我们学到了什么?
部署现有可解释AI系统的经验教训和局限性是什么?在向人类解释的过程中学到了什么?
接下来的发展是什么?
可解释AI未来的发展方向是什么?
二、概述
人工智能的未来在于使人们能够与机器协作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通,信任,清晰和理解。 可解释AI(XAI,eXplainable AI)旨在通过将符号人工智能与传统机器学习的最佳结合来应对这些挑战。多年来,人工智能的各个不同社区都在研究这一主题,它们有着不同的定义、评估指标、动机和结果。本教程简要介绍了可解释AI到目前为止的工作,并调研了人工智能社区在机器学习和符号人工智能相关方法方面所完成的工作。
在本教程的第一部分中,我们将介绍AI解释的不同方面。然后我们将本教程的重点放在两个具体的方法上:(i)使用机器学习的可解释AI和(ii)使用基于图(graph)的知识表示和机器学习结合的可解释AI。对于这两者,我们深入探讨了该方法的具体细节,现有技术以及后续步骤的研究挑战。本教程的最后一部分概述了可解释AI的实际应用。
三、大纲
【介绍】
人工智能解释的广泛介绍。这将包括从理论和应用的角度描述和激发对可解释AI技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同视角。
【可解释AI】
人工智能的各个领域(优化,知识表示和推理,机器学习,搜索和约束优化,规划,自然语言处理,机器人和视觉)的解释概述,使每个人对解释的不同定义保持一致。本教程将涵盖大多数定义,但只会深入以下领域:(i)可解释的机器学习,(ii)具有知识图和ML的可解释AI。
【可解释机器学习】
在本节中,我们将解决可解释的机器学习pipeline的广泛问题。我们描述了机器学习社区中可解释性的概念,并通过描述一些流行的可解释性模型来继续。本节的核心是对不同类别的黑箱问题进行分析,从黑箱模型讲解到黑箱结果讲解,最后是黑箱检查。
【用知识图谱和ML解释AI】
在本教程的这一部分中,我们将从两个不同的角度阐述基于图的知识库的解释力:
用语义网和逻辑解释AI
我们展示了支持语义web的模式丰富的、基于图的知识表示范式是如何实现有效解释的。本节还将重点介绍从大型异构知识库中表示和推断有效解释的逻辑和推理方法。
基于知识图谱的机器学习
在本节中,我们将重点讨论知识图嵌入模型,即将知识图中的概念编码为连续低维向量的神经架构。这些模型已经被证明对许多机器学习任务有效,特别是知识库的完成。我们解释了这些模型的基本原理和架构,并从它们的不可预测性以及如何增强第三方模型的可解释性的角度对它们进行了考察。
【应用】
我们展示了应用解释技术的真实示例。我们关注一些使用案例:i)具有内置解释功能的可解释的航班延误预测系统; ii)基于知识图的语义推理,预测和解释企业项目风险层次的大范围合同管理系统;iii) 500多个城市的大型组织员工异常报销的识别、解释和预测的费用体系。
Tutorial的讲者
PPT下载链接:https://pan.baidu.com/s/1dyjGJyhqS3-E77DysIkgHQ 提取码:aq79