ResNet最强改进版来了!ResNeSt:Split-Attention Networks

2020 年 4 月 17 日 CVer

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达


《ResNeSt: Split-Attention Networks》


作者团队:亚马逊(张航和李沐等)&UC Davis

代码(提供PyTorch和MXNet双版本):

https://github.com/zhanghang1989/ResNeSt

论文:https://hangzhang.org/files/resnest.pdf


前言


开头先致敬一下 ResNet!Amusi 于2020年4月17日在谷歌学术上查看ResNet的引用量,发现已高达 43413!请注意,这还只是ResNet发表短短4年多的引用量。


这里吐槽一句,现在出现很多基于NAS的新网络(趋势),暴力出奇迹,比如MobileNetV3、EfficientNet等,但论应用场景,还是ResNet给力。实际上,很多下游工作(目标检测、图像分割等)仍然在使用ResNet或其变体,主要是因为结构简洁通用。



本文要介绍的是ResNet 的新变体:ResNeSt。继续将ResNet"发扬光大",值得点赞。


Amusi 将标题注明了最强,很多人肯定会质疑是不是标题党?究竟有多强?往下看,你就知道了!


先说几组数据:


  • ResNeSt-50 在 ImageNet 上实现了81.13% top-1 准确率

  • 简单地用ResNeSt-50替换ResNet-50,可以将MS-COCO上的Faster R-CNN的mAP从39.25%提高到42.33%

  • 简单地用ResNeSt-50替换ResNet-50,可以将ADE20K上的DeeplabV3的mIoU从42.1%提高到45.1%


性能显著提升,参数量并没有显著增加,部分实验结果如下图所示。轻松超越ResNeXt、SENet等前辈(巨人)们。




ResNeSt


ResNeSt 的全称是:Split-Attention Networks,也就是特别引入了Split-Attention模块。如果没有猜错,ResNeSt 的 S 应该就是 Split


这里要说一下,ResNeSt 实际上是站在巨人们上的"集大成者",特别借鉴了:Multi-pathFeature-map Attention思想


其中:

  • GoogleNet 采用了Multi-path机制,其中每个网络块均由不同的卷积kernels组成。

  • ResNeXt在ResNet bottle模块中采用组卷积,将multi-path结构转换为统一操作。 

  • SE-Net 通过自适应地重新校准通道特征响应来引入通道注意力(channel-attention)机制。 

  • SK-Net 通过两个网络分支引入特征图注意力(feature-map attention)。


ResNeSt 和 SE-Net、SK-Net 的对应图示如下:



其中上图中都包含的 Split Attention模块如下图所示:



从图1和图2可知,都有split的影子。比如图1中的 K(k) 和图2中的 R(r) 都是超参数,也就是共计 G = K*R 组。


限于篇幅问题,本文旨在论文速递。完整理解Split Attention模块需要涉及部分公式,这里建议大家结合原文和代码进行理解。目前代码已经提供PyTorch和MXNet两个版本。


https://github.com/zhanghang1989/ResNeSt


同时论文还介绍了训练策略,这个对大家目前的工作应该具有很大的参考价值(涨点tricks)。


  • Large Mini-batch Distributed Training

  • Label Smoothing

  • Auto Augmentation

  • Mixup Training

  • Large Crop Size

  • Regularization


实验结果


ResNeSt 在ImageNet 图像分类性能如下,轻松超越SKNet、SENet、ResNetXt和ResNet。



ResNeSt 和其他SoTA的CNN模型进行性能比较(特别是NAS阵营)



ResNeSt 在MS-COCO 目标检测和实例分割任务上的表现性能如下,涨点太恐怖!



ResNeSt 在ADE20K 语义分割任务上的表现性能如下:


论文下载

在CVer公众号后台回复:ResNeSt,即可下载本论文

重磅!CVer-论文写作与投稿 交流群已成立


扫码添加CVer助手,可申请加入CVer-论文写作与投稿 微信交流群,目前已满1250+人,旨在交流顶会(CVPR/ICCV/ECCV/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI等写作与投稿事宜。


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如论文写作+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加微信群


▲长按关注CVer公众号

麻烦给我一个在看!

登录查看更多
3

相关内容

基于改进卷积神经网络的短文本分类模型
专知会员服务
26+阅读 · 2020年7月22日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
专知会员服务
27+阅读 · 2020年2月15日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
注意力机制模型最新综述
专知会员服务
270+阅读 · 2019年10月20日
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
用Attention玩转CV,一文总览自注意力语义分割进展
后ResNet时代:SENet与SKNet
PaperWeekly
23+阅读 · 2019年3月25日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
改进语音识别性能的数据增强技巧
深度学习每日摘要
8+阅读 · 2018年4月22日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Arxiv
7+阅读 · 2018年12月10日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
3+阅读 · 2018年3月5日
VIP会员
相关VIP内容
基于改进卷积神经网络的短文本分类模型
专知会员服务
26+阅读 · 2020年7月22日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
专知会员服务
27+阅读 · 2020年2月15日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
注意力机制模型最新综述
专知会员服务
270+阅读 · 2019年10月20日
相关资讯
47.4mAP!最强Anchor-free目标检测网络:SAPD
极市平台
13+阅读 · 2019年12月16日
语义分割中的Attention和低秩重建
极市平台
37+阅读 · 2019年9月1日
用Attention玩转CV,一文总览自注意力语义分割进展
后ResNet时代:SENet与SKNet
PaperWeekly
23+阅读 · 2019年3月25日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
改进语音识别性能的数据增强技巧
深度学习每日摘要
8+阅读 · 2018年4月22日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Top
微信扫码咨询专知VIP会员