本文主要基于2020 EMNLP Workshop上的一篇综述文章,介绍了NLP可解释领域的重大争议——注意力机制是否能作为解释?而什么方法才是真正符合解释逻辑的?

原论文链接:https://arxiv.org/abs/2010.05607

The elephant in the interpretability room: Why use attention as explanation when we have saliency methods?

本文目录 0. 引言:问题描述 1.注意力方法:是否构成可解释?

  • 关于注意力的辩论
  • 注意力分析的问题是否合理
  • 注意力方法与因果解释
  • 改进注意力以更好地作出解释
  1. 显著性方法
  • 基于梯度的方法(gradient-based methods)
  • 基于传播的方法(propagation-based methods)
  • 基于遮挡的方法(occlusion-based methods)
  1. 注意力vs显著性
  2. 注意力一无是处?非也
  • 注意力研究依然重要
  • 注意力可以为其他解释提供参考
  1. 显著性就是终极的解释方法了吗?
  • 在显著性之外
  • 显著性方法的局限性
  1. 结论
成为VIP会员查看完整内容
52

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
专知会员服务
119+阅读 · 2020年12月9日
【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
50+阅读 · 2020年11月19日
专知会员服务
30+阅读 · 2020年9月4日
专知会员服务
73+阅读 · 2020年8月25日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
专知会员服务
99+阅读 · 2020年3月19日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
注意力模型深度综述:注意力类型和网络架构都有什么
黑龙江大学自然语言处理实验室
9+阅读 · 2019年4月16日
Attention!注意力机制模型最新综述(附下载)
THU数据派
29+阅读 · 2019年4月13日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
自然语言处理中注意力机制综述
AINLP
27+阅读 · 2019年1月21日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
5+阅读 · 2017年12月29日
VIP会员
相关VIP内容
专知会员服务
119+阅读 · 2020年12月9日
【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
50+阅读 · 2020年11月19日
专知会员服务
30+阅读 · 2020年9月4日
专知会员服务
73+阅读 · 2020年8月25日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
专知会员服务
99+阅读 · 2020年3月19日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
相关资讯
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
注意力模型深度综述:注意力类型和网络架构都有什么
黑龙江大学自然语言处理实验室
9+阅读 · 2019年4月16日
Attention!注意力机制模型最新综述(附下载)
THU数据派
29+阅读 · 2019年4月13日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
自然语言处理中注意力机制综述
AINLP
27+阅读 · 2019年1月21日
相关论文
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
5+阅读 · 2017年12月29日
微信扫码咨询专知VIP会员