题目: Foundations of Explainable Knowledge-Enabled Systems
摘要:
自从人工智能时代以来,可解释性就一直是重要的目标。 目前为止,已经有几种产生解释的方法被提出。 但是,这些方法中有许多都与当时的人工智能系统的能力紧密相关。 随着有时在关键环境中启用AI的系统的普及,有必要让最终用户和决策者对它们进行解释。 我们将介绍可解释的人工智能系统的历史概况,重点是知识支持的系统,涵盖专家系统,认知助手,语义应用和机器学习领域。 此外,借鉴过去的方法的优势,并找出使解释以用户和上下文为中心所需要的空白,我们提出了新的解释定义和可解释的知识支持系统。