结构化数据在网络应用中很好地存在,如社交媒体中的社交网络、学术网站中的引文网络、在线论坛中的线程数据。由于拓扑结构的复杂性,这些数据中的丰富信息难以处理和利用。图神经网络(GNN)在结构化数据的学习表示方面显示出极大的优势。然而,深度学习模型的不透明性使得解释GNN的预测变得非常重要。同时,GNN解释的评价也是一个巨大的挑战,因为在很多情况下,基准真相解释是不可用的。在本文中,我们从因果推理理论中借鉴反事实和事实推理(CF^2)的观点,来解决可解释GNN中的学习和评价问题。为了生成解释,我们提出了一个模型无关的框架,通过建立一个优化问题的基础上,这两个随意的观点。这将CF^2与之前只考虑其中一个的可解释GNN区分开来。这项工作的另一个贡献是对GNN解释的评价。为了在不要求基本事实的情况下定量地评估生成的解释,我们设计了基于反事实和事实推理的度量标准,以评估解释的必要性和充分性。实验表明,无论基准真相解释是否可用,CF^2在真实数据集上都比以前的最先进的方法产生了更好的解释。此外,统计分析证明了基准真相评估和我们提出的指标之间的相关性。
https://www.zhuanzhi.ai/paper/3b2867aa0d96b5b6a4993c1affa0e534