强化学习作为机器学习的一种范式,因其强大的策略试错学习能力,受到关注 .随着深度学习的融入,强 化学习方法在许多复杂的控制任务中取得了巨大成功.然而,深度强化学习网络作为黑盒模型,其缺乏可解释性所 带来的不安全、不可控及难理解等问题限制了强化学习在诸如自动驾驶、智慧医疗等关键领域中的发展.为了解决 这一问题,科研人员开展了对强化学习可解释性的研究 .然而,这些研究开展相对较晚,且缺少针对多智能体强化 学习可解释性方法的系统性总结,同时,可解释性的定义存在人为主观性,导致系统性面向强化学习过程的可解释 性研究较为困难.本文对当前强化学习的可解释性研究工作进行了全面的整理与总结.首先,对强化学习的可解释 性进行定义并总结了相关评估方法.随后,基于马尔可夫决策过程,划分了行为级解释、特征级解释、奖励级解释及 策略级解释四个类别 .此外,在每个类别中,分析了单智能体及多智能体的策略解释方法,并特别关注可解释性研 究中的人为因素,描述了人机交互式的解释方法.最后,对当前强化学习可解释性研究面临的挑战以及未来的研究 方向进行总结与展望.