Explainability techniques for Graph Neural Networks still have a long way to go compared to explanations available for both neural and decision decision tree-based models trained on tabular data. Using a task that straddles both graphs and tabular data, namely Entity Matching, we comment on key aspects of explainability that are missing in GNN model explanations.


翻译:图表神经网络的可解释性技术仍然有很长的路要走,与在表格数据方面受过培训的神经模型和基于决策的树模型的解释性方法相比,我们还有很长的路要走。 我们利用一个将图表和表格数据(即实体匹配)相交不一的任务,就GNN模型解释中缺失的可解释性的关键方面发表了意见。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
7+阅读 · 2018年8月28日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
57+阅读 · 2021年5月3日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员