新智元推荐
来源:专知(ID:Quan_Zhuanzhi)
近年来,许多准确的决策支持系统被构建为黑盒子,即向用户隐藏其内部逻辑的系统。缺乏解释性既是实际问题,也是道德问题。这篇综述文献报道了许多旨在克服这一至关重要弱点的方法,有时以牺牲准确性为代价来提升可解释性。可以使用黑盒决策系统的应用是多种多样的,并且每种方法通常被开发以提供针对特定问题的解决方案,并且因此,其明确地或隐含地描绘其自身对可解释性的定义。本文的目的是提供调研文献中关于解释概念和黑匣子系统类型的主要问题的分类。给定问题定义,黑匣子类型和所需解释,此综述应该有助于研究人员找到对他自己工作更有用的建议。所提出的黑匣子模型分类方法也应该有助于对许多研究开放性问题。
在本文中,我们对文献中提出的用于解释基于不透明和模糊机器学习模型的决策系统的方法进行了全面的概述。首先,我们确定了解释问题的不同组成部分。特别是,我们提供了属于该范畴的每个问题的正式定义,为每个问题捕获了适当的特性。我们将这些黑箱问题命名为:模型解释问题、结果解释问题、模型检查问题、透明箱设计问题。然后,我们提出了文献中研究的方法的分类,这些方法考虑了以下几个方面:解决的具体解释问题,采用的解释器的类型,打开的黑箱模型,以及黑箱模型输入的数据的类型。
(本文经授权转载自公众号专知,ID:Quan_Zhuanzhi)
【加入社群】
新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2 入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。