arXiv爆款:想了解Attention就看它!清华计图胡事民团队出品

2021 年 11 月 21 日 量子位
博雯 发自 凹非寺
量子位 报道 | 公众号 QbitAI

清华计图胡事民团队的这篇注意力机制的综述火了!

在上周的arXiv上,这是最热的一篇论文:

推特以及GitHub上也有不低的热度:

而这篇论文引用近200篇内容,对计算机视觉领域中的各种注意力机制进行了全面回顾。

在大量调查之后,论文将注意力机制分为多个类别,GitHub还给出了各类别下提到内容的PDF下载文件:

现在,就来一起看看这篇论文。

文章主要内容

论文首先将基于注意力的模型在计算机视觉领域中的发展历程大致归为了四个阶段:

  1. 将深度神经网络与注意力机制相结合,代表性方法为RAM

  2. 明确预测判别性输入特征,代表性方法为STN

  3. 隐性且自适应地预测潜在的关键特征,代表方法为SENet

  4. 自注意力机制

同时,注意力机制也被分为了通道注意、空间注意、时间注意、分支注意,以及两个混合类别:

针对不同类别,研究团队给出了其代表性方法和发展背景:

通道注意力(Channel Attention)

在深度神经网络中,不同特征图的不同通道常代表不同对象。

而通道注意力作为一个对象选择过程,可以自适应地重新校准每个通道的权重,从而决定关注什么。

因此,按照类别和出版日期将代表性通道关注机制进行分类,应用范围有分类(Cls)、语义分割(SSeg)、实例分割(ISeg)、风格转换(ST)、动作识别(Action)

其中,(A)代表Channel-wise product,(I)强调重要通道,(II)捕捉全局信息。

空间注意力(Spatial Attention)

空间注意力可以被看作是一种自适应的空间区域选择机制。

其应用范围比通道注意力多出了精细分类(FGCls)和图像字幕(ICap)

时间注意力(Temporal Attention)

时间注意力可以被看作是一种动态的时间选择机制,决定了何时进行注意,因此通常用于视频处理。

分支注意力(Branch Attention)

分支注意可以被看作是一种动态的分支选择机制,通过多分支结构决定去注意什么。

通道空间注意力(Channel & Spatial Attention)

通道和空间结合的注意力机制可以自适应地选择重要的对象和区域,由残差注意力(Residual Attention)网络开创了这一内容。

在残差注意力之后,为了有效利用全局信息,后来的工作又相继引入全局平均池化(Global Average Pooling),引入自注意力机制等内容。

时空注意力(Spatial & Temporal Attention)

时空注意力机制可以自适应地选择重要区域和关键帧。

最后,作者也提出了注意力机制在未来的一些研究方向:

  • 探索注意力机制的必要和充分条件

  • 是否可以有一个通用的注意块,可以根据具体的任务在各类注意力机制之间进行选择

  • 开发可定性和可解释的注意力模型

  • 注意力机制可以产生稀疏的激活,这促使我们去探索哪种架构可以更好地模拟人类的视觉系统

  • 进一步探索基于注意力的预训练模型

  • 为注意力模型研究新的优化方法

  • 找到简单、高效、有效的基于注意力的模型,使其可以广泛部署

关于作者

这篇论文来自清华大学计算机系胡事民团队。

胡事民为清华大学计算机系教授,教育部长江学者特聘教授,曾经和现任IEEE、Elsevier、Springer等多个期刊的主编、副主编和编委。

同时,他也是清华“计图”框架团队的负责人,这是首个由中国高校开源的深度学习框架。

文章一作为胡事民教授的博士生国孟昊,现就读于清华大学计算机系,也是清华计图团队的一员。

各类资源汇总链接:
https://github.com/MenghaoGuo/Awesome-Vision-Attentions

文地址:
https://arXiv.org/abs/2111.07624

—  —

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

直播免费报名!

与AI大咖一起预见智能科技新未来

量子位「MEET2022智能未来大会」将于 11.30日全程直播, 李开复 博士、 张亚勤 教授、 百度 集团副总裁 吴甜 IBM 大中华区CTO 谢东 京东 集团副总裁 何晓冬 商汤 科技联创 杨帆 小冰 公司CEO 李笛 等多位行业重要嘉宾将带来主题演讲,期待再次为大家呈现精彩内容!
识别左侧二维码, 即刻预约直播 ;识别右侧二维码, 加入大会交流群 、还可抽取惊喜礼品&现金红包哦~

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~



登录查看更多
0

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
2021->2022必看的十篇「深度学习领域综述」论文
专知会员服务
112+阅读 · 2022年1月1日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
注意力机制综述
专知会员服务
198+阅读 · 2021年1月26日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
注意力机制模型最新综述
专知会员服务
260+阅读 · 2019年10月20日
清华&南开出品最新视觉注意力机制Attention综述
极市平台
0+阅读 · 2021年11月22日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
用Attention玩转CV,一文总览自注意力语义分割进展
自注意力机制在计算机视觉中的应用
GAN生成式对抗网络
18+阅读 · 2018年12月20日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
3+阅读 · 2022年4月19日
Arxiv
58+阅读 · 2021年11月15日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2019年4月5日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
25+阅读 · 2017年12月6日
VIP会员
相关资讯
清华&南开出品最新视觉注意力机制Attention综述
极市平台
0+阅读 · 2021年11月22日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
用Attention玩转CV,一文总览自注意力语义分割进展
自注意力机制在计算机视觉中的应用
GAN生成式对抗网络
18+阅读 · 2018年12月20日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
3+阅读 · 2022年4月19日
Arxiv
58+阅读 · 2021年11月15日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2019年4月5日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
25+阅读 · 2017年12月6日
Top
微信扫码咨询专知VIP会员