现有的GNN解释方法侧重于解释图的节点或边的重要性,但忽略了图子结构。事实上子结构更直观且容易被人理解。论文提出了一种通过识别重要的子图来解释GNNs 的方法,即 Subgraph X。给定一个经过训练的GNN模型和一个输入图,Subgraph X 通过蒙特卡洛树搜索有效地探索不同的子图来解释其预测。为了使树搜索更加有效,论文提出使用 Shapley 值作为子图重要性的衡量标准,这也可以捕捉到不同子图之间的相互作用。为了加快计算速度,论文提出了高效的近似方案来计算图数据的 Shapley 值。该论文是通过识别子图来解释 GNN 的第一次尝试,实验结果表明,Subgraph X 明显改善了解释结果,同时将计算量也相对合理。
先说说为啥要关注图神经网络的可解释性?
现有的 GNN 模型大多被视为黑盒子,其预测结果缺乏可解释性。如果不理解和推理预测背后的关系,这些模型就不能被人们理解信任,阻碍了它们在关键领域的应用,因此研究深度图模型的可解释性十分必要。
本文的提出的解释方法的独特性在于?
很多文献在研究图像和文本上的深度模型的解释技术方面做了工作,这些方法可以通过不同的策略解释网络行为和特定输入的预测结果。然而,GNN 的可解释性仍未得到充分的探索。与图像和文本不同,图数据不是网格状的数据,它包含重要的结构信息。因此,图像和文本领域的方法不能直接应用。目前存在的GNN 解释方法,如 GNNExplainer、PGExplainer 和 PGM-Explainer,但它都是关注节点、边或节点特征层面的可解释性,没有进行子图层面的可解释性研究。本文认为子图层面的解释更加直观和有用,因为子图是复杂图的简单构件,与图的功能高度相关。