Transformers已经成为机器学习的重要主力,有着众多的应用。这就需要制定可靠的方法来增加其透明度。人们提出了多种基于梯度信息的可解释性方法。我们表明,Transformers中的梯度仅反映局部函数,因此不能可靠地识别输入特征对预测的贡献。我们认为引起这种不可靠解释的主要原因是注意力头和LayerNorm,并提出了一种通过这些层传播的更稳定的方式。我们的建议可以被视为对已建立的LRP方法的适当扩展,在理论上和经验上都证明了该方法克服了简单的基于梯度的方法的缺陷,并在广泛的Transformer模型和数据集上实现了最先进的解释性能。

https://proceedings.mlr.press/v162/ali22a.html

成为VIP会员查看完整内容
15

相关内容

【ICML2022】通过能量最小化学习迭代推理
专知会员服务
25+阅读 · 2022年7月3日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【ICML2022】图神经网络异常检测的再思考
专知会员服务
33+阅读 · 2022年6月3日
【ICML2022】深度神经网络中的特征学习与信号传播
专知会员服务
25+阅读 · 2022年6月2日
专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
36+阅读 · 2021年5月15日
专知会员服务
81+阅读 · 2021年5月10日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
28+阅读 · 2021年1月4日
【ICML2022教程】智能交互式学习,80页ppt
专知
1+阅读 · 2022年7月22日
IJCAI'21 | 理解GNN的"弱点"
图与推荐
0+阅读 · 2021年11月26日
赛尔笔记 | 可解释的自然语言处理方法简介
哈工大SCIR
3+阅读 · 2021年5月28日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年9月8日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关VIP内容
【ICML2022】通过能量最小化学习迭代推理
专知会员服务
25+阅读 · 2022年7月3日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【ICML2022】图神经网络异常检测的再思考
专知会员服务
33+阅读 · 2022年6月3日
【ICML2022】深度神经网络中的特征学习与信号传播
专知会员服务
25+阅读 · 2022年6月2日
专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
36+阅读 · 2021年5月15日
专知会员服务
81+阅读 · 2021年5月10日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
28+阅读 · 2021年1月4日
相关资讯
【ICML2022教程】智能交互式学习,80页ppt
专知
1+阅读 · 2022年7月22日
IJCAI'21 | 理解GNN的"弱点"
图与推荐
0+阅读 · 2021年11月26日
赛尔笔记 | 可解释的自然语言处理方法简介
哈工大SCIR
3+阅读 · 2021年5月28日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年9月8日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
15+阅读 · 2018年4月5日
微信扫码咨询专知VIP会员