主题: Directions for Explainable Knowledge-Enabled Systems
摘要: 数十年来,人们对可解释人工智能领域的兴趣不断增长,并且近年来这种兴趣正在加速增长。随着人工智能模型变得更加复杂,并且通常更加不透明,并且随着复杂的机器学习技术的结合,可解释性变得越来越重要。最近,研究人员一直在研究和解决以用户为中心的可解释性,寻找解释以考虑可信度,可理解性,显性出处和上下文意识。在本章中,我们将利用对人工智能及其密切相关领域的解释性文献的调查,并利用过去的努力来生成一组解释类型,我们认为这些类型反映了当今人工智能应用对解释的扩展需求。我们定义每种类型,并提供一个示例问题,以激发对这种解释方式的需求。我们认为,这组解释类型将有助于未来的系统设计人员生成需求并确定其优先级,并进一步帮助生成更符合用户和情况需求的解释。