注意力能提高模型可解释性?实验表明:并没有

2019 年 3 月 14 日 机器之心

选自 arXiv

作者:Sarthak Jain

机器之心编译

参与:Nurhachu Null、张倩


自然语言处理中有一种普遍的观点:注意力机制可以提高模型的可解释性,但这一观点经得起检验吗?本文作者通过实验证明:标准的注意力模块在解释模型方面基本没什么卵用。


注意力机制(Bahdanau et al., 2014)引入了输入单元的条件分布来为下游的模块形成一个权重语境向量。这在神经自然语言处理结构中几乎是普遍的存在。注意力权重通常(明确地或者隐式地)被认为能够提供关于模型「内部工作机理」的信息:对一个给定的输出,你可以检查到模型分配了较大注意力权重的输入。Li 等人(2016)总结了这一在自然语言处理中普遍持有的观点:「注意力机制为神经模型的工作方式提供了一种重要的解释方式」。事实上,注意力可以提供模型解释的说法在文献中是很常见的。


其中隐含的假设是高注意力权重对应的输入单元(例如单词)会对模型的输出造成影响。但是据目前所知,这个假设并没有被正式地评估过,而且本文作者发现这一假设是有问题的。具体而言,他们通过实验研究了注意力权重、输入和输出之间的关系。


看一下图 1,左边是使用标准的注意力 BiLSTM 架构对某部电影的影评做情感分析得到的在单词上的原始注意力分布α。似乎很有可能从中得出结论:单词「waste」是模型倾向于判断为「negative,差评」(y^=0.01)的主要原因。但是也可以构建另一个注意力分布α~(右图),它注意到了完全不同的单词,但是得到了基本一样的预测结果(保持 f 的其他参数θ为常数)。


图 1:一个负面电影评论的注意力权重热力图。该图展示了所观察到的模型的注意力(左)和一个对照组的注意力权重(右)。尽管注意力很不相似,但是两者都有效地产生了相同的预测(0.01)。


这种反事实的分布意味着,通过突出注意到的 token 来解释原始的预测是有误导性的。例如,现在可以从右图中得到这样的结论:模型的输出主要是由于单词「was」;但是「waste」和「was」无法同时成为原因。此外,这种情况下的注意力权重与基于梯度的特征重要性度量只存在微弱的相关性(τg = 0.29)。并且,任意置换α中的元素就能得到与原始预测的中值差异为 0.006 的结果。


这些结果以及类似的发现都使人们对「注意力能为模型的预测提供有意义的解释」这一观点产生质疑。因此作者提醒我们不要使用注意力权重来强调对模型输出「负责」的输入 token,并将其作为理所应当的基础。


作者对这些问题的研究结果如下:(1)注意力只能为模型的预测提供微弱的解释,而且并不总是一致的;(2)这通常很可能构建「对立的」注意力分布。当使用最初引入的注意力权重时,它能够得到等价的预测,即使是注意到了完全不同的输入特征。甚至更令人印象深刻的是,随机置换注意力权重通常只会导致输出的微小变化。


论文:Attention is not Explanation



论文链接:https://arxiv.org/abs/1902.10186v1


摘要:注意力机制在神经自然语言处理中得到了广泛的采用。除了能够提升预测的性能,它们通常被吹捧能够提高模型的透明度:即具有注意力的模型提供了在输入单元上的注意力分布,并且这通常被呈现为(至少是隐含地说明)表达了输入的相对重要性。但是,注意力权重和模型输出之间到底存在什么样的关系并不明确。在这篇论文中,我们在各种自然语言处理任务上开展了广泛的实验,这些任务旨在评估注意力权重能够对预测提供何种程度上的有意义的「解释」。我们发现注意力权重基本上是做不到的。例如,学习到的注意力权重通常与基于梯度的特征重要性度量是没有关联的,而且我们可以发现非常不同的注意力分布,它们可以带来同样的预测。我们的研究结果表明,标准的注意力模块并没有提供有意义的解释。所有实验的代码参见:

https://github.com/successar/AttentionExplanation。


4. 实验


我们进行了一系列实验来检查学习到的注意力权重的经验属性,确认它们的可解释性和透明性。关键的问题是:学习到的注意力权重是否和特征重要性的自然度量是一致的?此外,如果我们注意到了不同的特征,预测结果会不同吗?


我们以两种方式实验性地表征了注意力权重和对应的特征重要性得分之间的关联:(1)基于梯度的特征重要性度量(τg);(2)忽略了一些特征((τloo))之后模型输出的不同。


表 2 是每个数据集中的 Kendall 相关系数τ的统计结果


表 2:梯度和 LOO(leave-one-out)的重要性度量和注意力权重的均值、标准差、方差。Sig. Frac. 列指的是这种关联在统计上确实是重要的例子的比例。


图 2:注意力和梯度之间的 Kendall 系数τ。颜色代表的是预测类别。


图 3 描述的是数据集中的样本中原始注意力αˆ的最大值和模型输出的中位诱导变化 (∆ˆy med) 之间的关系。如上所示,颜色还是代表预测类别。


图 3:输出的中位数变化∆ˆymed (X 轴) 密度与随机置换注意力权重得到的最大注意力 (max ˆα) (Y 轴) 是相关的。


图 5 表明,虽然这种结果存在负面效应,但是事实上比较微弱。换种方式说:在这所有的数据集中存在很多案例,尽管具有较高的注意力权重,但是不同的注意力配置最终会得到相同的结果。


图 5:最大 JS 散度的(max JSD)密度,它是每个从原始注意力和对抗注意力权重中得到的例子的最大注意力(Y 轴)的一个函数。



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

登录查看更多
1

相关内容

【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
【CCL 2019】结合规则蒸馏的情感原因发现方法
专知会员服务
21+阅读 · 2019年11月27日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
注意力模型深度综述:注意力类型和网络架构都有什么
黑龙江大学自然语言处理实验室
9+阅读 · 2019年4月16日
Attention!注意力机制模型最新综述
中国人工智能学会
18+阅读 · 2019年4月8日
自然语言处理中注意力机制综述
黑龙江大学自然语言处理实验室
11+阅读 · 2019年2月26日
专栏 | 深入理解图注意力机制
机器之心
25+阅读 · 2019年2月19日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
8+阅读 · 2018年1月19日
VIP会员
相关VIP内容
【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
【CCL 2019】结合规则蒸馏的情感原因发现方法
专知会员服务
21+阅读 · 2019年11月27日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
相关资讯
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
注意力模型深度综述:注意力类型和网络架构都有什么
黑龙江大学自然语言处理实验室
9+阅读 · 2019年4月16日
Attention!注意力机制模型最新综述
中国人工智能学会
18+阅读 · 2019年4月8日
自然语言处理中注意力机制综述
黑龙江大学自然语言处理实验室
11+阅读 · 2019年2月26日
专栏 | 深入理解图注意力机制
机器之心
25+阅读 · 2019年2月19日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
相关论文
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
8+阅读 · 2018年1月19日
Top
微信扫码咨询专知VIP会员