Since the Transformer architecture was introduced in 2017 there has been many attempts to bring the self-attention paradigm in the field of computer vision. In this paper we propose a novel self-attention module that can be easily integrated in virtually every convolutional neural network and that is specifically designed for computer vision, the LHC: Local (multi) Head Channel (self-attention). LHC is based on two main ideas: first, we think that in computer vision the best way to leverage the self-attention paradigm is the channel-wise application instead of the more explored spatial attention and that convolution will not be replaced by attention modules like recurrent networks were in NLP; second, a local approach has the potential to better overcome the limitations of convolution than global attention. With LHC-Net we managed to achieve a new state of the art in the famous FER2013 dataset with a significantly lower complexity and impact on the ``host'' architecture in terms of computational cost when compared with the previous SOTA.


翻译:自2017年引入变压器架构以来,人们多次尝试在计算机愿景领域引入自我注意模式。在本文件中,我们提出了一个新的自我注意模块,该模块可以很容易地融入几乎所有的进化神经网络,并专门为计算机愿景设计,即LHC:本地(多)主频道(自我注意 ) 。 LHC基于两个主要理念:首先,我们认为在计算机愿景中,利用自我注意模式的最佳方式是“自发”模式的渠道性应用,而不是更多探索的空间关注,并且不会被像NLP中经常网络那样的关注模块所取代;其次,一种本地做法有可能比全球关注更好地克服变迁的局限性。 与LHC-Net相比,我们设法在著名的FER2013数据集中实现了新的艺术状态,在计算成本方面,“宿主”架构的复杂性和影响大大低于以前的SOTA。

0
下载
关闭预览

相关内容

注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Arxiv
31+阅读 · 2021年6月30日
Arxiv
6+阅读 · 2020年4月14日
Arxiv
4+阅读 · 2019年8月7日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
8+阅读 · 2018年5月21日
VIP会员
相关资讯
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Top
微信扫码咨询专知VIP会员