Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
Arxiv
0+阅读 · 2023年4月20日
Arxiv
0+阅读 · 2023年4月6日
Arxiv
0+阅读 · 2023年4月7日
Arxiv
0+阅读 · 2023年4月6日
Arxiv
0+阅读 · 2022年6月1日
参考链接
微信扫码咨询专知VIP会员