Attention mechanism, especially channel attention, has gained great success in the computer vision field. Many works focus on how to design efficient channel attention mechanisms while ignoring a fundamental problem, i.e., using global average pooling (GAP) as the unquestionable pre-processing method. In this work, we start from a different view and rethink channel attention using frequency analysis. Based on the frequency analysis, we mathematically prove that the conventional GAP is a special case of the feature decomposition in the frequency domain. With the proof, we naturally generalize the pre-processing of channel attention mechanism in the frequency domain and propose FcaNet with novel multi-spectral channel attention. The proposed method is simple but effective. We can change only one line of code in the calculation to implement our method within existing channel attention methods. Moreover, the proposed method achieves state-of-the-art results compared with other channel attention methods on image classification, object detection, and instance segmentation tasks. Our method could improve by 1.8% in terms of Top-1 accuracy on ImageNet compared with the baseline SENet-50, with the same number of parameters and the same computational cost. Our code and models will be made publicly available.


翻译:许多工作的重点是如何设计高效的频道关注机制,同时忽略一个根本问题,即使用全球平均集合(GAP)作为不可置疑的预处理方法。在这项工作中,我们从不同的角度出发,用频率分析重新思考频道关注。根据频率分析,我们在数学上证明常规GAP是频率域特征分解的特殊案例。有了证据,我们自然会将频率域频道关注预处理机制的预处理方法普遍化,并以新的多光谱频道关注方式提出FcaNet。提议的方法简单而有效。我们只能在计算中改变一行代码,以便在现有频道关注方法内执行我们的方法。此外,与关于图像分类、天体探测和实例分解任务的其他频道关注方法相比,拟议方法取得了最新的结果。我们的方法可以在图像网络上与基准SENet-50相比,在最大1的准确度方面改进1.8%,同时提供相同的参数和相同的计算成本。我们的代码和模型将公开提供。

1
下载
关闭预览

相关内容

注意力机制综述
专知会员服务
205+阅读 · 2021年1月26日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
26+阅读 · 2020年7月19日
注意力图神经网络的小样本学习
专知会员服务
192+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
112+阅读 · 2020年3月28日
专知会员服务
61+阅读 · 2020年3月19日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
专知会员服务
110+阅读 · 2020年3月12日
Attention最新进展
极市平台
5+阅读 · 2020年5月30日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
已删除
将门创投
9+阅读 · 2017年7月28日
Arxiv
1+阅读 · 2021年2月27日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
3+阅读 · 2019年3月15日
Arxiv
3+阅读 · 2018年10月25日
VIP会员
相关VIP内容
注意力机制综述
专知会员服务
205+阅读 · 2021年1月26日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
26+阅读 · 2020年7月19日
注意力图神经网络的小样本学习
专知会员服务
192+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
112+阅读 · 2020年3月28日
专知会员服务
61+阅读 · 2020年3月19日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
专知会员服务
110+阅读 · 2020年3月12日
相关资讯
Attention最新进展
极市平台
5+阅读 · 2020年5月30日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
已删除
将门创投
9+阅读 · 2017年7月28日
相关论文
Top
微信扫码咨询专知VIP会员