模型的可解释性是机器学习领域的重要研究课题,主要关注两个方向,一个是提升模型本身的可解释性,如引入注意力机制、解耦表示学习等技术;另一个是对黑盒模型的事后解释,如特征掩码技术、可视化技术等。图结构提供了额外的拓扑信息,也对可解释技术提出了更高的要求。本文将介绍在KDD 2020上发表的两个该方向最新工作。

第一个工作是Research Track的《XGNN: Towards Model-Level Explanations of Graph Neural Networks》,关注黑盒模型的事后解释,提出了一种基于输入优化的图神经网络事后解释方法。

第二个工作是Applied Data Science Track的《Explainable classification of brain networks via contrast subgraphs》,关注提升模型本身的可解释性,提出了一种基于对比子图的可解释脑网络分类方法。

成为VIP会员查看完整内容
30

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
专知会员服务
37+阅读 · 2020年10月15日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
100+阅读 · 2020年10月13日
专知会员服务
47+阅读 · 2020年9月20日
专知会员服务
29+阅读 · 2020年9月13日
专知会员服务
74+阅读 · 2020年9月1日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
对抗样本生成技术综述
专知会员服务
63+阅读 · 2020年7月21日
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
160+阅读 · 2020年6月30日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
【浙江大学】对抗样本生成技术综述
专知会员服务
91+阅读 · 2020年1月6日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
计算机视觉专题分享总结(附PPT)
机器学习读书会
42+阅读 · 2017年7月6日
Arxiv
19+阅读 · 2020年7月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
22+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2020年10月15日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
100+阅读 · 2020年10月13日
专知会员服务
47+阅读 · 2020年9月20日
专知会员服务
29+阅读 · 2020年9月13日
专知会员服务
74+阅读 · 2020年9月1日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
对抗样本生成技术综述
专知会员服务
63+阅读 · 2020年7月21日
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
160+阅读 · 2020年6月30日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
【浙江大学】对抗样本生成技术综述
专知会员服务
91+阅读 · 2020年1月6日
相关论文
Arxiv
19+阅读 · 2020年7月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
22+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
微信扫码咨询专知VIP会员