Graph neural networks (GNNs) have become a popular approach to integrating structural inductive biases into NLP models. However, there has been little work on interpreting them, and specifically on understanding which parts of the graphs (e.g. syntactic trees or co-reference structures) contribute to a prediction. In this work, we introduce a post-hoc method for interpreting the predictions of GNNs which identifies unnecessary edges. Given a trained GNN model, we learn a simple classifier that, for every edge in every layer, predicts if that edge can be dropped. We demonstrate that such a classifier can be trained in a fully differentiable fashion, employing stochastic gates and encouraging sparsity through the expected $L_0$ norm. We use our technique as an attribution method to analyze GNN models for two tasks -- question answering and semantic role labeling -- providing insights into the information flow in these models. We show that we can drop a large proportion of edges without deteriorating the performance of the model, while we can analyse the remaining edges for interpreting model predictions.


翻译:图形神经网络(GNNs)已成为将结构性感应偏差纳入NLP模型的流行方法。 但是,在解释这些图解方面,特别是了解图表的哪些部分(如合成树或共同参照结构)有助于预测。 在这项工作中,我们引入了一种解释GNNs预测的后热方法,该方法可辨别不必要的边缘。在经过培训的GNN模式下,我们学习了一个简单的分类器,该分类器对每一层的边缘进行预测,以预测是否可以抛下边缘。我们证明,这种分类器可以完全以完全不同的方式加以培训,使用随机门,并通过预期的0.0美元标准鼓励宽度。我们用我们的技术分析GNN模式的模型,用于两项任务 -- -- 问题回答和语义作用标签 -- -- 提供对这些模型信息流的洞察力。我们显示,我们可以在不使模型性能恶化的情况下降低大部分边缘,同时我们可以分析模型预测的剩余边缘。

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Locally Sparse Networks for Interpretable Predictions
Arxiv
0+阅读 · 2021年6月6日
Arxiv
38+阅读 · 2020年12月2日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关VIP内容
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Locally Sparse Networks for Interpretable Predictions
Arxiv
0+阅读 · 2021年6月6日
Arxiv
38+阅读 · 2020年12月2日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
4+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员