Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
一文读懂「Attention is All You Need」| 附代码实现
PaperWeekly
37+阅读 · 2018年1月10日
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
3万字长文带你轻松入门视觉Transformer
CVer
0+阅读 · 2020年11月28日
如果我是推荐算法面试官,我会问哪些问题?
PaperWeekly
2+阅读 · 2021年2月28日
2017年度NLP领域论文TOP10(附链接)
数据派THU
6+阅读 · 2018年2月11日
【动态】第八期可视化与可视分析国际学术报告成功举办
中国图象图形学学会CSIG
0+阅读 · 2022年1月12日
CVPR 2018 中国论文分享会之 「GAN 与合成」
AI科技评论
2+阅读 · 2018年5月21日
Spatial Group-wise Enhance算法详解
人工智能前沿讲习班
9+阅读 · 2019年6月13日
独家 | AI 和大数据正在改变我们的注意广度
THU数据派
1+阅读 · 2017年9月1日
参考链接
微信扫码咨询专知VIP会员