综述:DenseNet—Dense卷积网络(图像分类)

2018 年 11 月 26 日 专知

【导读】本文对Dense卷积网络的发展进行了综述。这是2017年的CVPR最佳论文奖,并拥有2000多篇论文引用。它由康威尔大学、清华大学和facebook AI共同合作完成。


作者 | SH Tsang

编译 | Xiaowen


与 ResNet 和 Pre-Activation ResNet 相比,DenseNet 具有较少的参数和较高的精度。那么,让我们看看它是如何工作的。




目录

  1. Dense Block

  2. DenseNet 结构

  3. DenseNet 的优势

  4. CIFAR & SVHN 小规模数据集结果

  5. ImageNet 大规模数据集结果

  6. 特征复用的进一步分析



Dense Block



Standard ConvNet Concept


在Standard ConvNet中,输入图像经过多次卷积,得到高层次特征。


ResNet Concept


在ResNet中,提出了恒等映射(identity mapping)来促进梯度传播,同时使用使用 element 级的加法。它可以看作是将状态从一个ResNet 模块传递到另一个ResNet 模块的算法。


One Dense Block in DenseNet


在 DenseNet 中,每个层从前面的所有层获得额外的输入,并将自己的特征映射传递到后续的所有层,使用级联方式,每一层都在接受来自前几层的“集体知识(collective knowledge)”。


增长速率K的Dense Block


由于每个层从前面的所有层接收特征映射,所以网络可以更薄、更紧凑,即信道数可以更少。增长速率k是每个层的附加信道数。


因此,它具有较高的计算效率和存储效率。下图显示了前向传播中级联的概念:


前向传播中的级联



DenseNet 结构



1. 基础 DenseNet 组成层



Composition Layer


对于每个组成层使用 Pre-Activation Batch Norm (BN) 和 ReLU,然后用k通道的输出特征映射进行 3×3 卷积,例如,将x0、x1、x2、x3转换为x4。这是 Pre-Activation ResNet 的想法。

2. DenseNet-B (Bottleneck 层)


DenseNet-B


为了降低模型的复杂度和规模,在BN-ReLU-3×3 conv之前进行了BN-ReLU-1×1 conv.

3. 具有转换层(transition layer)的多Dense块


Multiple Dense Blocks


采用1×1 Conv和2×2平均池化作为相邻 dense block 之间的转换层。


特征映射大小在 dense block 中是相同的,因此它们可以很容易地连接在一起。


在最后一个 dense block 的末尾,执行一个全局平均池化,然后附加一个Softmax分类器。


4. DenseNet-BC (进一步压缩)


如果 Dense Block 包含m个特征映射,则转换层(transition layer)生成 θm 输出特征映射,其中 0<θ≤1 称为压缩因子。


当θ=1时,跨转换层的特征映射数保持不变。在实验中,θ<1的 DenseNet 称为 DenseNet-C,θ=0.5。


当同时使用 bottleneck 和 θ<1 时的转换层时,该模型称为 DenseNet-BC 模型。


最后,训练 with/without B/C 和不同L层和k生长速率的 DenseNet。



DenseNet的优势



  1. 强梯度流


隐含的“深度监督”


误差信号可以更直接地传播到早期的层中。这是一种隐含的深度监督,因为早期的层可以从最终的分类层直接获得监督。


2. 参数和计算效率


RestNet 和 DenseNet 的参数数量


对于每个层,RetNet 中的参数与c×c成正比,而 DenseNet 中的参数与1×k×k成正比。


由于 k<<C, 所以 DenseNet 比 ResNet 的size更小。


3. 更加多样化的特征


DenseNet中更加多样化的特征


由于 DenseNet 中的每一层都接收前面的所有层作为输入,因此特征更加多样化,并且倾向于有更丰富的模式。


4. 保持低复杂度特征


标准ConvNet


在标准ConvNet中,分类器使用最复杂的特征。


DenseNet


在 DenseNet 中,分类器使用所有复杂级别的特征。它倾向于给出更平滑的决策边界。它还解释了为什么 DenseNet 在训练数据不足时表现良好。



CIFAR & SVHN 小规模数据集结果



1. CIFAR-10


CIFAR-10 结果


详细比较Pre-Activation ResNet。


数据增强(C10+),测试误差:

  • Small-size ResNet-110: 6.41%

  • Large-size ResNet-1001 (10.2M parameters): 4.62%

  • State-of-the-art (SOTA) 4.2%

  • Small-size DenseNet-BC (L=100, k=12) (Only 0.8M parameters): 4.5%

  • Large-size DenseNet (L=250, k=24): 3.6%


无数据增强(C10),测试误差:

  • Small-size ResNet-110: 11.26%

  • Large-size ResNet-1001 (10.2M parameters): 10.56%

  • State-of-the-art (SOTA) 7.3%

  • Small-size DenseNet-BC (L=100, k=12) (Only 0.8M parameters): 5.9%

  • Large-size DenseNet (L=250, k=24): 4.2%


在 Pre-Activation ResNet 中出现严重的过拟合,而 DenseNet 在训练数据不足时表现良好,因为DenseNet 使用了复杂的特征。


C10+: 不同的DenseNet变量(左),DenseNet vs. ResNet(中),DenseNet和ResNet的训练和测试曲线(右)


左:DenseNet-BC获得最佳效果。


中:Pre-Activation ResNet 已经比 alexnet 和 vggnet 获得更少的参数,DenseNet-BC(k=12)的参数比 Pre-Activation ResNet 少3×10,测试误差相同。


右:与 Pre-Activation ResNet-1001有10.2m参数相比,0.8参数的DenseNet-BC-100具有相似的测试误差。


2. CIFAR-100


CIFAR-100类似的趋势如下:


CIFAR-100 结果


3. 具体结果


具体结果,+表示数据增强


SVHN是街景房屋编号的数据集。蓝色代表最好的效果。DenseNet-BC不能得到比基本 DenseNet 更好的结果,作者认为SVHN是一项相对容易的任务,非常深的模型可能会过拟合。



ImageNet 大规模数据集结果



Different DenseNet Top-1 and Top-5 Error Rates with Single-Crop (10-Crop) Results


与原始ResNet比较在ImageNet上的验证结果


左:20M参数的DenseNet-201与大于40M参数的ResNet-101产生类似的验证错误。


右:相似的计算次数趋势(GOLOPS)。


底部:DenseNet-264(k=48)最高误差为20.27%,前5误差为5.17%。



特征复用的进一步分析



Heat map on the average absolute weights of how Target layer (l) reuses the source layer (s)


  • 从非常早期的层中提取的特征被同一 Dense Block 中的较深层直接使用。

  • 转换层的权重也分布在前面的所有层中。

  • 第二和第三dense block内的各层一贯地将最小权重分配给转换层的输出。(第一行)

  • 在最终分类层,权重似乎集中在最终feature map上。一些更高级的特性在网络中产生得很晚。




原文链接:

https://towardsdatascience.com/review-densenet-image-classification-b6631a8ef803




-END-

专 · 知

人工智能领域26个主题知识资料全集获取与加入专知人工智能服务群: 欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询!


请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!



请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~

 AI 项目技术 & 商务合作:bd@zhuanzhi.ai, 或扫描上面二维码联系!

请关注专知公众号,获取人工智能的专业知识!

点击“阅读原文”,使用专知

登录查看更多
83

相关内容

作为CVPR2017年的Best Paper, DenseNet脱离了加深网络层数(ResNet)和加宽网络结构(Inception)来提升网络性能的定式思维,从特征的角度考虑,通过特征重用和旁路(Bypass)设置,既大幅度减少了网络的参数量,又在一定程度上缓解了gradient vanishing问题的产生.结合信息流和特征复用的假设,DenseNet当之无愧成为2017年计算机视觉顶会的年度最佳论文.
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
图像分类:常用分类网络结构(附论文下载)
极市平台
13+阅读 · 2019年4月8日
基于手机系统的实时目标检测
计算机视觉战队
8+阅读 · 2018年12月5日
入门 | 从VGG到NASNet,一文概览图像分类网络
机器之心
6+阅读 · 2018年4月2日
【发展历程】从LeNet-5到DenseNet
GAN生成式对抗网络
3+阅读 · 2017年11月20日
从LeNet-5到DenseNet
AI研习社
9+阅读 · 2017年11月18日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关资讯
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
深入探究深度卷积语义分割网络和 Deeplab_V3
AI研习社
6+阅读 · 2019年4月13日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
图像分类:常用分类网络结构(附论文下载)
极市平台
13+阅读 · 2019年4月8日
基于手机系统的实时目标检测
计算机视觉战队
8+阅读 · 2018年12月5日
入门 | 从VGG到NASNet,一文概览图像分类网络
机器之心
6+阅读 · 2018年4月2日
【发展历程】从LeNet-5到DenseNet
GAN生成式对抗网络
3+阅读 · 2017年11月20日
从LeNet-5到DenseNet
AI研习社
9+阅读 · 2017年11月18日
Top
微信扫码咨询专知VIP会员