图神经网络(GNNs)已成为复杂网络中节点分类任务的强大工具。然而,它们的决策过程对用户来说仍是一个黑盒,这使得理解它们预测背后的推理变得具有挑战性。反事实解释(CFE)在增强机器学习模型的可解释性方面显示出了前景。以前计算GNNs的CFE的方法通常是基于学习的方法,需要训练额外的图。在这篇论文中,我们提出了一种基于半值的非学习方法来生成节点分类任务的CFE,消除了任何额外训练的需求。我们的结果揭示了计算班扎夫值(Banzhaf values)在识别反事实解释方面需要的样本复杂度比计算沙普利值(Shapley values)等其他流行方法低。我们的实证证据表明,与沙普利值相比,计算班扎夫值可以实现高达四倍的速度提升。我们还设计了一种计算班扎夫值的阈值方法,并展示了其在嘈杂环境中的鲁棒性的理论和实证结果,使其优于沙普利值。此外,阈值化的班扎夫值被证明在不牺牲解释的质量(即,忠实度)的情况下,提高了三个流行图数据集的效率。

成为VIP会员查看完整内容
29

相关内容

【KDD2023】空间异质感知图神经网络
专知会员服务
29+阅读 · 2023年6月25日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
专知会员服务
23+阅读 · 2020年9月15日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【ICML2020】图神经网络谱聚类
专知
10+阅读 · 2020年7月7日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
【KDD2023】空间异质感知图神经网络
专知会员服务
29+阅读 · 2023年6月25日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
专知会员服务
23+阅读 · 2020年9月15日
相关资讯
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【ICML2020】图神经网络谱聚类
专知
10+阅读 · 2020年7月7日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员