作为人工智能的一个领域,机器推理(MR)大量使用符号手段来形式化和模拟抽象推理,这对构建智能、自主的系统至关重要。最近,可解释的人工智能(XAI)正经历着巨大的增长动力,因为需要构建可信的基于人工智能的系统。
机器学习(ML)的可解释性通过大量的作品可见。然而,MR的可解释性似乎并没有得到足够的关注,尽管关于MR可解释性的研究是长期的、深入的和多样化的。
在本教程中,我们将提供对MR技术和研究的选择性概述,这些研究解决了基于逻辑推理、约束规划、论证、自主规划、符号强化学习、因果推理等领域中出现的可解释性问题。为了系统化,我们提出一个松散的分类解释为定语,对比和可行动。我们认为,综述和分类将为读者提供对MR中已建立的可解释性研究的见解,从而很好地补充当前的XAI领域。
https://www.ericsson.com/en/events/webinars/aamas-2021-tutorial