涨点神器GSA:全局自注意力网络,打造更强注意力模型

2020 年 11 月 3 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨ChaucerG
来源丨AI人工智能初学者
编辑丨极市平台

极市导读

 

本文提出一个新的全局自注意力模块:GSA,该模块足够高效,可以用作backbone组件。其由两个并行层组成:内容注意力层和位置注意力层,表现SOTA!性能优于SAN(CVPR 2020)等注意力网络。>>加入极市CV技术交流群,走在计算机视觉的最前沿

1、简介

由于自注意力的二次计算和存储复杂性,这些工作要么仅将注意力应用于深层网络后期的低分辨率特征图,要么将每层的注意力感受野限制在较小的局部区域。为了克服这些限制,本文引入了一个新的全局自注意力模块,称为GSA模块,该模块足够高效,可以用作深度网络的backbone组件。

该模块由两个并行层组成:一个内容注意力层,仅基于像素的内容对其进行关注;一个位置关注层,其基于像素的空间位置进行关注。该模块输出是两层输出的总和。在提出的GSA模块的基础上引入了独立的基于全局注意力的网络,该深度网络使用GSA模块来建模像素交互。由于所提出的GSA模块具有全局范围,所以GSA网络能够在整个网络中对远距离像素间的相互作用进行建模。

实验结果表明,GSA网络在使用较少的参数和计算量的情况下,在CIFAR-100和ImageNet数据集上显著优于基于卷积的网络。在ImageNet数据集上,提出的GSA网络也优于现有的各种基于注意力的网络。

2、相关方法

2.1、Auxiliary Visual Attention

Non-Local Block首次在计算机视觉中采用dot-product attention注意力机制进行long-range dependency建模,实验验证了该算法在视频分类和目标检测方面的有效性。

最近,一系列的工作将Transformer引入了计算机视觉领域。使用深度CNN模型提取语义特征,然后由Transformer对特征之间的高层交互进行建模。有学者使用Transformer建模对象级的交互以进行对象检测,也有学者使用Transformer建模帧间的依赖关系以进行视频表示学习。

这些辅助注意力方法在大部分卷积的网络中或仅在网络的末端使用注意模块。它们增强了CNN的远程交互建模,但仍然将大部分特征建模归为卷积操作。

2.2、Bacbone Visual Attention

由于Non-Local Block高昂的开销使得无法广泛替换卷积层,导致最终的模型仍然有大部分卷积模块。有研究人员将感受野限制在一个local内(通常是7*7)来解决这个问题。也有研究人员利用global attention的轴向分解来解决这个问题。

3、本文方法

3.1、Content Attention Layer

这一层使用以下基于内容的全局注意操作来生成新的特性 :

式中,为K的矩阵转置,表示对每一行分别进行softmax归一化的运算。这种注意力机制可以被视为第一个像素特征V通过使用中的权重聚合到dk全局上下文向量,然后重新分配全局上下文向量回每个像素使用Q。这个操作的计算和内存复杂度是O(N)。

3.2、Positional Attention Layer

内容注意层不考虑像素的空间位置,因此与像素变换是等变的。就其本身而言,它并不最适合处理空间结构化数据(如图像)的任务。本文通过使用位置注意层来解决这个问题,该层根据像素本身的内容及其相对于相邻像素的空间位置来计算像素的Attention map。对于每个像素,位置注意层关注它的L×L近邻spatial。

本文将这个注意层实现为一个仅存在列的注意层,然后是一个仅存在行的注意层。在仅列关注层中,输出像素只关注其列上的输入像素,而在仅行关注层中,输出像素只关注其行上的输入像素。让是一组L补偿,表示L沿着一条列可学的相对位置嵌入相应的矩阵空间偏移量。设 为像素(a,b)的L列邻居处的值组成的矩阵。设表示像素点处的无列位置注意层的输出(a,b)。然后,仅列位置注意力机制,使用相对位置嵌入作为关键,可以描述使用:

其中为像素点(a,b)处的查询。由于每个像素只关心L列邻居,因此这个仅列位置注意层的计算和存储复杂性为O(NL),其中N为像素的个数。类似地,可以使用L行邻居对应的L可学习相对位置嵌入来定义具有O(NL)计算和内存复杂性的仅行位置注意层。

3.3、GSA Network

GSA网络是使用GSA模块而不是空间卷积来建模像素交互的深度网络。表1显示了GSA网络与最近各种基于注意力的网络的区别。

4、实验结果

4.1、基于CIFAR-100实验

可以看出在CIFAR-100数据集上基于GSA的设计,参数更少,精度更高;

4.2、基于ImageNet实验

可以看出在ImageNet数据集上基于GSA的设计,参数更少,精度更高;

更为详细内容可以参见论文中的描述。

References

[1] GLOBAL SELF-ATTENTION NETWORKS



推荐阅读






    添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

    △长按添加极市小助手

    △长按关注极市平台,获取 最新CV干货

    觉得有用麻烦给个在看啦~   
    登录查看更多
    1

    相关内容

    利用注意力机制来“动态”地生成不同连接的权重,这就是自注意力模型(Self-Attention Model). 注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。注意力机制可以快速提取稀疏数据的重要特征,因而被广泛用于自然语言处理任务,特别是机器翻译。而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性
    【NeurIPS 2020】依图推出预训练语言理解模型ConvBERT
    专知会员服务
    11+阅读 · 2020年11月13日
    【CIKM2020】利用自注意力网络使搜索结果多样化
    专知会员服务
    12+阅读 · 2020年11月6日
    【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
    专知会员服务
    88+阅读 · 2020年7月23日
    基于多头注意力胶囊网络的文本分类模型
    专知会员服务
    76+阅读 · 2020年5月24日
    专知会员服务
    25+阅读 · 2020年2月15日
    【论文笔记】自注意力图池化
    专知
    79+阅读 · 2019年11月18日
    自注意力机制在计算机视觉中的应用
    GAN生成式对抗网络
    18+阅读 · 2018年12月20日
    干货 | NLP中的self-attention【自-注意力】机制
    机器学习算法与Python学习
    12+阅读 · 2018年4月11日
    Arxiv
    0+阅读 · 2021年2月2日
    Attention Network Robustification for Person ReID
    Arxiv
    5+阅读 · 2019年10月15日
    Arxiv
    4+阅读 · 2019年8月7日
    Self-Attention Graph Pooling
    Arxiv
    5+阅读 · 2019年4月17日
    Arxiv
    6+阅读 · 2019年4月8日
    Arxiv
    6+阅读 · 2018年11月1日
    Arxiv
    3+阅读 · 2018年3月21日
    VIP会员
    相关VIP内容
    【NeurIPS 2020】依图推出预训练语言理解模型ConvBERT
    专知会员服务
    11+阅读 · 2020年11月13日
    【CIKM2020】利用自注意力网络使搜索结果多样化
    专知会员服务
    12+阅读 · 2020年11月6日
    【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
    专知会员服务
    88+阅读 · 2020年7月23日
    基于多头注意力胶囊网络的文本分类模型
    专知会员服务
    76+阅读 · 2020年5月24日
    专知会员服务
    25+阅读 · 2020年2月15日
    相关资讯
    【论文笔记】自注意力图池化
    专知
    79+阅读 · 2019年11月18日
    自注意力机制在计算机视觉中的应用
    GAN生成式对抗网络
    18+阅读 · 2018年12月20日
    干货 | NLP中的self-attention【自-注意力】机制
    机器学习算法与Python学习
    12+阅读 · 2018年4月11日
    相关论文
    Arxiv
    0+阅读 · 2021年2月2日
    Attention Network Robustification for Person ReID
    Arxiv
    5+阅读 · 2019年10月15日
    Arxiv
    4+阅读 · 2019年8月7日
    Self-Attention Graph Pooling
    Arxiv
    5+阅读 · 2019年4月17日
    Arxiv
    6+阅读 · 2019年4月8日
    Arxiv
    6+阅读 · 2018年11月1日
    Arxiv
    3+阅读 · 2018年3月21日
    Top
    微信扫码咨询专知VIP会员