随着深度神经网络在机器学习的各个领域获得广泛成功, 其自身所存在的问题也日益尖锐和突出, 例如可解释性差、鲁棒性弱和模型训练难度大等. 这些问题严重影响了神经网络模型的安全性和易用性. 因此, 神经网络的可解释性受到了大量的关注, 而利用模型可解释性改进和优化模型的性能也成为研究热点之一. 在本文中, 我们通过几何中流形的观点来理解深度神经网络的可解释性, 在通过流形视角分析神经网络所遇到的问题的同时, 汇总了数种有效的改进和优化策略并对其加以解释. 最后, 本文对深度神经网络流形解释目前存在的挑战加以分析, 提出将来可能的发展方向, 并对今后的工作进行了展望.
https://www.sciengine.com/publisher/scp/journal/SSI/51/9/10.1360/SSI-2020-0169?slug=fulltext