A variety of attention mechanisms have been studied to improve the performance of various computer vision tasks. However, the prior methods overlooked the significance of retaining the information on both channel and spatial aspects to enhance the cross-dimension interactions. Therefore, we propose a global attention mechanism that boosts the performance of deep neural networks by reducing information reduction and magnifying the global interactive representations. We introduce 3D-permutation with multilayer-perceptron for channel attention alongside a convolutional spatial attention submodule. The evaluation of the proposed mechanism for the image classification task on CIFAR-100 and ImageNet-1K indicates that our method stably outperforms several recent attention mechanisms with both ResNet and lightweight MobileNet.


翻译:研究各种关注机制以改善各种计算机愿景任务的业绩,但先前的方法忽略了保留频道和空间信息以加强跨层互动的重要性,因此,我们建议建立一个全球关注机制,通过减少信息减少和扩大全球互动演示,提高深神经网络的性能。我们引入了三维调和多层感应器,供频道关注,并配有动态空间关注子模块。对拟议的CIFAR-100和图像网络-1K图像分类任务机制的评估表明,我们的方法在ResNet和轻量级移动网络上都明显优于最近几个关注机制。

1
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【经典书】模式识别导论,561页pdf
专知会员服务
81+阅读 · 2021年6月30日
专知会员服务
59+阅读 · 2021年3月17日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
CCF推荐 | 国际会议信息10条
Call4Papers
8+阅读 · 2019年5月27日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
3+阅读 · 2020年9月30日
Area Attention
Arxiv
5+阅读 · 2019年5月23日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
Top
微信扫码咨询专知VIP会员