【简介】近些年来,可解释的人工智能受到了越来越多的关注。随着人工智能模型变得越来越复杂和不透明,可解释性变得越来越重要。最近,研究人员一直在以用户为中心研究和处理可解释性,寻找可信任、可理解、明确的来源和上下文感知的可解释性。在这篇论文中,我们通过调研人工智能和相关领域中有关可解释性的文献,并利用过去的相关研究生成了一系列的可解释类型。我们定义每种类型,并提供一个示例问题,来阐述对这种解释方式的需求。我们相信,这一系列的解释类型将有助于未来的系统设计人员获得可靠的需求和确定各种需求的优先级,并进一步帮助生成能够更好地符合用户和情景需求的解释。
介绍
人工智能(AI)领域已经从单纯的基于符号和逻辑的专家系统发展到使用统计和逻辑推理技术的混合系统。可解释性人工智能的进展与人工智能方法的发展紧密相关,例如我们在早期的论文“可解释的知识支持系统的基础”中所涉及的类别,涵盖了专家系统、语义web方法、认知助手和机器学习方法。我们注意到这些方法主要处理可解释性的特定方面。例如,由专家系统产生的解释主要用于提供推理所需的痕迹、来源和理由。这些由认知助理提供的模型能够调整它们的形式以适应用户的需求,并且在机器学习和专家系统领域,解释为模型的功能提供了一种“直觉”。
Section 2: 关于可解释类型的全面概述
随着计算时代的变迁,相关的解释也在不断演变。正如我们在section1中所建议的那样,以及我们在之前论文中对基本方法的回顾,我们发现解释的生成会极大的促进AI系统的发展,并不仅仅是最终用户的需求。我们认为这是一个问题,作为人工智能系统的消费者,用户保留理解和利用他们所使用的系统所产生的额外费用的权利。研究人员已经注意到使用者也许不能够受益于系统的可解释性机制,并且仅提供可解释的结果不足以让用户根据人工智能系统得出的结论采取行动。专家表示我们需要超越当前人工智能系统所产生的解释类型,并借鉴邻近的解释科学,如社会科学和心理学。目前正在探索开发可解释的健康助手就是一个很好的例子。
Section 3:对于研究方向的描述
现在比以前更加需要对AI系统的使用者提供一个个性化的,值得信赖的,结合了上下文的解释。在section 1中对于解释的定义表明AI系统应该对于用户所关注的方面生成解释。在这一章节中,我们寻求一些有助于增加用户对解释信任的方法,并支持更具适应性和以用户为中心的解释。在我们看来,这类方法将能够作为可解释性人工智研究方向的指导。
部分论文展示:
原文链接:https://arxiv.org/abs/2003.07523
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“DEKES” 就可以获取《可解释知识系统的发展趋势综述》专知下载链接