基于原型的可解释性方法通过将样本与记忆的样本或典型代表的参考集进行相似性比较,为模型预测提供直观的解释。在序列数据建模领域,原型的相似度计算通常基于编码表示向量。然而,由于高度递归的函数,基于原型的解释和原始输入之间通常存在不可忽略的差异。本文提出一种自解释选择性模型(SESM),用原型概念的线性组合来解释自己的预测。该模型采用基于案例推理的思想,选择最能激活不同概念的输入子序列作为原型部件,用户可以将其与从不同示例输入中选择的子序列进行比较,以理解模型决策。为了更好的可解释性,设计了多种约束,包括多样性、稳定性和局部性作为训练目标。在不同领域的广泛实验表明,所提出方法表现出良好的可解释性和有竞争力的准确性。

https://www.zhuanzhi.ai/paper/db26f2247e2b7a1b39ddc69b3e9e4ab8

成为VIP会员查看完整内容
20

相关内容

【AAAI2023】图序注意力网络
专知会员服务
46+阅读 · 2022年11月24日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
46+阅读 · 2021年12月14日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
35+阅读 · 2020年7月24日
AAAI 2022 | ProtGNN:自解释图神经网络络
PaperWeekly
0+阅读 · 2022年8月22日
【WSDM2022】具有分层注意力的表示学习
图与推荐
1+阅读 · 2021年11月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
16+阅读 · 2021年1月27日
Arxiv
16+阅读 · 2019年4月4日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
【AAAI2023】图序注意力网络
专知会员服务
46+阅读 · 2022年11月24日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
46+阅读 · 2021年12月14日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
35+阅读 · 2020年7月24日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
16+阅读 · 2021年1月27日
Arxiv
16+阅读 · 2019年4月4日
Arxiv
22+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员