本文介绍了一种新的注意力机制——Triplet Attention,它通过使用Triplet Branch结构捕获跨维度交互来计算注意力权重,是一个即插即用、简单高效的注意力模块。>>加入极市CV技术交流群,走在计算机视觉的最前沿
https://github.com/LandskapeAI/triplet-attention https://arxiv.org/abs/2010.03045
本文研究了轻量且有效的注意力机制,并提出了Triplet Attention,该注意力机制是一种通过使用Triplet Branch结构捕获跨维度交互来计算注意力权重的新方法。对于输入张量,Triplet Attention通过旋转操作和残差变换建立维度间的依存关系,并以可忽略的计算开销对通道和空间信息进行编码。该方法既简单又有效,并且可以轻松地插入经典Backbone中。
1、简介和相关方法
最近许多工作提出使用Channel Attention或Spatial Attention,或两者结合起来提高神经网络的性能。这些Attention机制通过建立Channel之间的依赖关系或加权空间注意Mask有能力改善由标准CNN生成的特征表示。学习注意力权重背后是让网络有能力学习关注哪里,并进一步关注目标对象。这里列举一些具有代表的工作:
1、SENet(Squeeze and Excite module) 2、CBAM(Convolutional Block Attention Module) 3、BAM(Bottleneck Attention Module) 4、Grad-CAM 5、Grad-CAM++ 6、
-Nets(Double Attention Networks) 7、NL(Non-Local blocks) 8、GSoP-Net(Global Second order Pooling Networks) 9、GC-Net(Global Context Networks) 10、CC-Net(Criss-Cross Networks) 11、SPNet
等等方法(这些方法都值得大家去学习和调研,说不定会给你的项目带来意想不到的效果)。 以上大多数方法都有明显的缺点(Cross-dimension),Triplet Attention解决了这些缺点。Triplet Attention模块旨在捕捉Cross-dimension交互,从而能够在一个合理的计算开销内(与上述方法相比可以忽略不计)提供显著的性能收益。
2、本文方法
2.1、分析
本文的目标是研究如何在不涉及任何维数降低的情况下建立廉价但有效的通道注意力模型。Triplet Attention不像CBAM和SENet需要一定数量的可学习参数来建立通道间的依赖关系,本文提出了一个几乎无参数的注意机制来建模通道注意和空间注意,即Triplet Attention。
2.2、Triplet Attention
所提出的Triplet Attention见下图所示。顾名思义,Triplet Attention由3个平行的Branch组成,其中两个负责捕获通道C和空间H或W之间的跨维交互。最后一个Branch类似于CBAM,用于构建Spatial Attention。最终3个Branch的输出使用平均进行聚合。
1、Cross-Dimension Interaction
传统的计算通道注意力的方法涉及计算一个权值,然后使用权值统一缩放这些特征图。但是在考虑这种方法时,有一个重要的缺失。通常,为了计算这些通道的权值,输入张量在空间上通过全局平均池化分解为一个像素。这导致了空间信息的大量丢失,因此在单像素通道上计算注意力时,通道维数和空间维数之间的相互依赖性也不存在。
虽然后期提出基于Spatial和Channel的CBAM模型缓解了空间相互依赖的问题,但是依然存在一个问题,即,通道注意和空间注意是分离的,计算是相互独立的。基于建立空间注意力的方法,本文提出了跨维度交互作用(cross dimension interaction)的概念,通过捕捉空间维度和输入张量通道维度之间的交互作用,解决了这一问题。
这里是通过三个分支分别捕捉输入张量的(C, H),(C, W)和(H, W)维间的依赖关系来引入Triplet Attention中的跨维交互作用。
2、Z-pool
Z-pool层负责将C维度的Tensor缩减到2维,将该维上的平均汇集特征和最大汇集特征连接起来。这使得该层能够保留实际张量的丰富表示,同时缩小其深度以使进一步的计算量更轻。可以用下式表示:
class ChannelPool (nn.Module) : def forward (self, x) : return torch.cat((torch.max(x,1 )[0 ].unsqueeze(1 ), torch.mean(x,1 ).unsqueeze(1 )), dim=11 )
3、Triplet Attention
给定一个输入张量
,首先将其传递到Triplet Attention模块中的三个分支中。
为了实现这一点,输入张量
沿H轴逆时针旋转90°。这个旋转张量表示为
的形状为(W×H×C),再然后经过Z-Pool后的张量
的shape为(2×H×C),然后,
通过内核大小为k×k的标准卷积层,再通过批处理归一化层,提供维数(1×H×C)的中间输出。然后,通过将张量通过sigmoid来生成的注意力权值。在最后输出是沿着H轴进行顺时针旋转90°保持和输入的shape一致。
为了实现这一点,输入张量
沿W轴逆时针旋转90°。这个旋转张量表示为
的形状为(H×C×W),再然后经过Z-Pool后的张量
的shape为(2×C×W ),然后,
通过内核大小为k×k的标准卷积层,再通过批处理归一化层,提供维数(1×C×W)的中间输出。然后,通过将张量通过sigmoid来生成的注意力权值。在最后输出是沿着W轴进行顺时针旋转90°保持和输入的shape一致。
输入张量
的通道通过Z-pool将变量简化为2。将这个形状的简化张量(2×H×W)简化后通过核大小k定义的标准卷积层,然后通过批处理归一化层。输出通过sigmoid激活层生成形状为(1×H×W)的注意权值,并将其应用于输入
,得到结果
。然后通过简单的平均将3个分支产生的精细张量(C×H×W)聚合在一起。
class BasicConv (nn.Module) : def __init__ (self, in_planes, out_planes, kernel_size, stride=1 , padding=0 , dilation=1 , groups=1 , relu=True, bn=True, bias=False) : super(BasicConv, self).__init__() self.out_channels = out_planes self.conv = nn.Conv2d(in_planes, out_planes, kernel_size=kernel_size, stride=stride, padding=padding, dilation=dilation, groups=groups, bias=bias) self.bn = nn.BatchNorm2d(out_planes,eps=1e-5 , momentum=0.01 , affine=True ) if bn else None self.relu = nn.ReLU() if relu else None def forward (self, x) : x = self.conv(x) if self.bn is not None : x = self.bn(x) if self.relu is not None : x = self.relu(x) return xclass ChannelPool (nn.Module) : def forward (self, x) : return torch.cat( (torch.max(x,1 )[0 ].unsqueeze(1 ), torch.mean(x,1 ).unsqueeze(1 )), dim=1 )class SpatialGate (nn.Module) : def __init__ (self) : super(SpatialGate, self).__init__() kernel_size = 7 self.compress = ChannelPool() self.spatial = BasicConv(2 , 1 , kernel_size, stride=1 , padding=(kernel_size-1 ) // 2 , relu=False ) def forward (self, x) : x_compress = self.compress(x) x_out = self.spatial(x_compress) scale = torch.sigmoid_(x_out) return x * scaleclass TripletAttention (nn.Module) : def __init__ (self, gate_channels, reduction_ratio=16 , pool_types=['avg' , 'max' ], no_spatial=False) : super(TripletAttention, self).__init__() self.ChannelGateH = SpatialGate() self.ChannelGateW = SpatialGate() self.no_spatial=no_spatial if not no_spatial: self.SpatialGate = SpatialGate() def forward (self, x) : x_perm1 = x.permute(0 ,2 ,1 ,3 ).contiguous() x_out1 = self.ChannelGateH(x_perm1) x_out11 = x_out1.permute(0 ,2 ,1 ,3 ).contiguous() x_perm2 = x.permute(0 ,3 ,2 ,1 ).contiguous() x_out2 = self.ChannelGateW(x_perm2) x_out21 = x_out2.permute(0 ,3 ,2 ,1 ).contiguous() if not self.no_spatial: x_out = self.SpatialGate(x) x_out = (1 /3 )*(x_out + x_out11 + x_out21) else : x_out = (1 /2 )*(x_out11 + x_out21) return x_out
4、Complexity Analysis
通过与其他标准注意力机制的比较,验证了Triplet Attention的效率,C为该层的输入通道数,r为MLP在计算通道注意力时瓶颈处使用的缩减比,用于2D卷积的核大小用k表示,k<<<C。
3、实验结果
3.1、图像分类实验
3.2、目标检测实验
3.3、消融实验
3.4、HeatMap输出对比
4、总结
在这项工作中提出了一个新的注意力机制Triplet Attention,它抓住了张量中各个维度特征的重要性。Triplet Attention使用了一种有效的注意计算方法,不存在任何信息瓶颈。实验证明,Triplet Attention提高了ResNet和MobileNet等标准神经网络架构在ImageNet上的图像分类和MS COCO上的目标检测等任务上的Baseline性能,而只引入了最小的计算开销。是一个非常不错的即插即用的注意力模块。
References
[1] Rotate to Attend: Convolutional Triplet Attention Module
推荐阅读
ACCV 2020国际细粒度网络图像识别竞赛 正式开赛!
添加极市小助手微信 (ID : cvmart2) ,备注: 姓名-学校/公司-研究方向-城市 (如:小极-北大-目标检测- 深圳),即可申请加入 极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解 等技术交流群: 每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+ 来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流 ~
觉得有用麻烦给个在看啦~