近年来,机器学习模型,尤其是深度学习和变压器模型的性能空前提高,因此被广泛应用于金融、医疗保健和教育等各个领域。然而,这些模型容易出错,无法自主使用,尤其是在决策场景中,从技术或道德角度讲,出错的代价很高。此外,由于这些模型的黑箱性质,最终用户往往难以理解模型的结果和底层过程,无法信任并使用模型结果做出决策。可解释人工智能(XAI)通过利用包括可视化技术在内的方法来解释和诠释模型的内部运作以及如何得出结果,从而帮助最终用户理解模型。尽管最近开展了大量研究,重点关注模型和 XAI 方法的性能,但关于解释对人类-人工智能团队性能的影响的研究较少。本文调查了近期关于 XAI 对人类-人工智能决策影响的实证研究,确定了面临的挑战,并提出了未来的研究方向。
人工智能辅助决策研究领域正在飞速发展,研究和实验的数量也在稳步增加。然而,由于实验中的任务和设置各不相同,关于 XAI 对人类决策的影响的研究结果也不尽相同[81]。还需要进行实证研究,以形成对人类与人工智能之间互动的基本理解,从而做出决策[20]。此外,人类在模型可解释性中的作用及其对带有或不带 XAI 组件的人工智能辅助决策的影响也未得到充分研究[62]。例如,认知科学、社会科学和心理学中存在大量关于人类如何形成解释并相互解释不同现象的研究[64],这些研究对 XAI 领域,尤其是人工智能辅助决策环境中的 XAI 领域大有裨益。