作者 | 庄双双
单位 | 南京邮电大学
来源 | MIND Laboratory
收录来源:
论文来源:
尽管最近在图神经网络 (GNNs) 方面取得了进展,但解释图神经网络的预测仍然具有挑战性。现有的解释方法主要集中在事后解释上,其中使用另一个解释模型为一个训练过的 GNN 提供解释。事后方法未能揭示 GNN 的原始推理过程,这一事实提出了构建具有内置可解释性的 GNN 的需要。
在这项工作中,作者提出了原型图神经网络 (ProtGNN),它将原型学习与 GNN 结合起来,为 GNN 的解释提供了一个新的视角。在 ProtGNN 中,解释自然来源于基于案例的推理过程,实际上在分类过程中使用。ProtGNN 的预测是通过将输入与潜在空间中的一些学习原型进行比较而得到的。
此外,为了更好的可解释性和更高的效率,作者引入了一个新的条件子图采样模块来指示输入图的哪一部分与 ProtGNN+ 中的每个原型最相似。最后,作者在广泛的数据集上评估了模型,并进行了具体的案例研究。广泛的结果表明,ProtGNN 和 ProtGNN+ 可以提供内在的可解释性,同时实现与不可解释性的对等对象相当的性能。
作者利用原型学习的概念来构建具有内置可解释性的 GNN(即自我解释的 GNN)。与事后解释方法相比,自我解释 GNN 所产生的解释实际上是在分类过程中使用的,而不是在分类后产生的。基于原型学习构建自我解释的 GNN 带来了独特的挑战。首先,边缘的离散性使得图形原型的投影和可视化变得困难。其次,图结构的组合性质使得很难建立高效和高精度的自解释模型。文中为解决上述挑战,并提出了原型图神经网络 (ProtGNN),这为 GNN 的解释提供了一个新的视角。
ProtGNN/ProtGNN+ 的整体架构如下:
模型主要由三个核心模块构成:GNN Encoder,Prototype Layer 和 Fully Connected Layer。
Fully Connected Layer:基于原型层得到的相似性分数,全连接层过 Softmax 函数计算每个类的输出概率。
模型的目标是学习一个具有准确性和内在可解释性的 ProtGNN。为了提高准确性,作者在训练数据集上采用交叉熵损失函数:
为了更好的可解释性,作者在构建可解释性的原型时考虑了 3 个约束条件:
1. 首先,集群成本 (Clst) 每个图的嵌入至少应该是 c 输给一个自己类的原型:
2. 其次,分离成本 (Sep) 每个图的嵌入都应该远离所属类的原型:
3. 最后,多样性损失 (Div) 来使学习原型的多样性,避免原型之间过于接近:
综上所述,最终的目标函数是:
2.3 Prototype Projection
2.4 Conditional Subgraph Sampling module
作者进一步提出了一个新的条件子图采样模块的 ProtGNN+,以提供更好的解释在 ProtGNN+ 中,不仅显示了与原型的相似度分数,而且还确定了作为推理过程的一部分,输入图的哪一部分与每个原型最相似。
子图采样模块为每个原型输出不同的子图嵌入。随着图大小的时间复杂度呈指数增长,并行化和泛化的难度使 MCTS 算法成为一个不可取的选择。而是提出一种参数化方法进行子图搜索。
形式上,让 是指示节点 i 和 j 之间的边是否被选择的二进制变量。 的矩阵记为 。为了提高效率和可推广性,作者假设解释图为随机图,采用深度神经网络来学习:
2.5.2 Training Procedures
作者采用梯度下降法来优化等式中的目标函数,每隔几个训练 epoch 执行一次原型投影步骤。
将 ProtGNN / ProtGNN+ 模型与三种不同的 GNN 评估。
结果显示,ProtGNN 和 ProtGNN+ 实现了与相应的原始 GNN 模型相当的分类性能。
对于 MUTAG 和 Graph-SST2 案例研究:
t-SNE 上的可视化:
图中可以观察到原型可以占据图嵌入的中心,这验证了原型学习的有效性。
虽然人们已经做出了广泛的努力来从不同的角度解释 GNN,但现有的方法都不能为 GNN 提供内置的解释。在本文中,作者提出了 ProtGNN/ProtGNN+,它为 GNN 的解释提供了一个新的视角。ProtGNN 的预测是通过将输入与原型层中的一些学习原型进行比较来获得的。为了更好的可解释性和更高的效率,提出了一种新的条件子图采样模块来指示与原型最相似的子图。大量的实验结果表明,作者的方法可以提供人类可接受的分类精度、时间复杂度和人类可理解的推理过程。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧