摘要: 近年来, 深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展, 这些任务多以卷积神经网络(Convolutional neural network, CNN)为基础搭建识别模型, 训练后的模型拥有优异的自动特征提取和预测性能, 能够为用户提供“输入-输出”形式的解决方案. 然而, 由于分布式的特征编码和越来越复杂的模型结构, 人们始终无法准确理解CNN模型内部知识表示, 以及促使其做出特定决策的潜在原因. 另一方面, CNN模型在一些高风险领域的应用, 也要求对其决策原因进行充分了解, 方能获取用户信任. 因此, CNN的可解释性问题逐渐受到关注. 研究人员针对性的提出了一系列用于理解和解释CNN的方法, 包括事后解释方法和构建自解释的模型等, 这些方法各有侧重和优势, 从多方面对CNN进行特征分析和决策解释. 表征可视化是其中一种重要的CNN可解释性方法, 能够对CNN所学特征及输入-输出之间的相关关系以视觉的方式呈现, 从而快速获取对CNN内部特征和决策的理解, 具有过程简单和效果直观的特点. 本文对近年来CNN表征可视化领域的相关文献进行了综合性回顾, 按照以下几个方面组织内容: 表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用, 重点关注了表征可视化方法的分类及算法的具体过程. 最后, 对该领域仍存在的难点及未来研究趋势进行了展望, 并总结了全文.