Attention is an effective mechanism to improve the deep model capability. Squeeze-and-Excite (SE) introduces a light-weight attention branch to enhance the network's representational power. The attention branch is gated using the Sigmoid function and multiplied by the feature map's trunk branch. It is too sensitive to coordinate and balance the trunk and attention branches' contributions. To control the attention branch's influence, we propose a new attention method, called Shift-and-Balance (SB). Different from Squeeze-and-Excite, the attention branch is regulated by the learned control factor to control the balance, then added into the feature map's trunk branch. Experiments show that Shift-and-Balance attention significantly improves the accuracy compared to Squeeze-and-Excite when applied in more layers, increasing more size and capacity of a network. Moreover, Shift-and-Balance attention achieves better or close accuracy compared to the state-of-art Dynamic Convolution.


翻译:注意是提高深层模型能力的有效机制。 Squeze- and-Excite (SE) 引入了一个轻量级关注分支, 以强化网络的代表力量。 注意分支使用 Sigmoid 函数并乘以特性地图的中继分支, 其作用太敏感, 无法协调和平衡中继和关注分支的贡献 。 为了控制关注分支的影响, 我们建议了一种新的关注方法, 叫做 Shift- and- Balance (SB) 。 不同于 Squeze- and- Excite (SB), 关注分支由学习的控制因素来控制平衡, 然后添加到特征地图的中继分支 。 实验显示, 移动和平衡关注显著提高了在多层应用时的准确性, 增加了网络的大小和能力。 此外, 移动和平衡关注比状态动态变迁的准确性更好或更近。

0
下载
关闭预览

相关内容

最新「注意力机制」大综述论文,66页pdf569篇文献
专知会员服务
205+阅读 · 2021年4月2日
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【干货书】《机器学习导论(第二版)》,348页pdf
专知会员服务
246+阅读 · 2020年6月16日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
干货 | 自然语言处理(3)之词频-逆文本词频(TF-IDF)详解
机器学习算法与Python学习
3+阅读 · 2017年12月19日
Arxiv
9+阅读 · 2018年5月7日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
Top
微信扫码咨询专知VIP会员