学界 | CVPR 2017最佳论文作者黄高解析深度学习中的三大挑战

2018 年 1 月 14 日 AI科技评论 MomentaAI

AI 科技评论按:本文由清华大学邱楚聿整理,首发于公众号 MomentaAI,AI 科技评论授权转载。

主讲人:黄高 

CVPR 2017最佳论文《Densely Connected Convolutional Networks》第一作者。

清华大学博士、康奈尔大学博士后,主要从事机器学习相关研究工作。

曾先后在圣路易斯华盛顿大学、新加坡南洋理工大学、微软亚洲院做机器学习相关研究。

从深度学习的蓬勃发展开始,众多经典的网络设计从LeNet、AlexNet到VGG、Inception、ResNet等,都推动了一波又一波的人工智能的高峰。

目前来看,深度卷积网络挑战主要有:

1.Underfitting(欠拟合)。一般来说,模型越为复杂,表达能力越强,越不容易欠拟合。但是深度网络不一样,模型表达能力够,但是算法不能达到那个全局的最优(resnet基本解决)。

2.Overfiting(过拟合),泛化能力下降。

3.实际系统的部署。如何提升效率和减少内存、能量消耗。

工作1:随机深度网络

Insight:训练深度网络很困难时长太长,如何在训练时训一个比较浅的网络,而部署时得到更深的网络?

目的:提升网络的训练效率,进一步改善网络的泛化性能。

方法:在训练的每一个iteration前,在resnet的每一个Residual Unit上,我们只需随机扔一枚硬币,判定这个Unit是否被消去(去除非线性stack只保留直连)。最后再做前向和后向的传播。这样,我们每一次都相当于在训一个浅一点的网络,最后这个大网络也能收敛,效果不错。

细节:注意,这个随机硬币并不是五五开对称的,而是用线性插值来决定。例如,第一个unit的生存概率为1,最后一个为0.5,中间各unit做一个线性插值。因为前几层的提取相对重要,我们直接让第一个unit生存概率为1,只要决定最后一个unit的生存概率,一个超参数。

效果:Cifar-10上,新方法训练resnet时,比常用方法测试集误差低,准确率更高,但是训练误差高,说明正则化效果很好。

启示:为什么这个简单的方法效果很好?

网络冗余性:训练时扔掉大部分层却效果不错,说明冗余性很多,每一层干的事情很少,只学一点东西。

工作2:DenseNet

Insight:如何消除上述的冗余性?更紧致的结构?更好的泛化性能?

目的:减少不必要的计算,提高泛化性能。

方法:根据之前分析的冗余性,ResNet很多计算其实是隐式地把之前的feature复制到后一层。怎么避免计算上隐式的copy操作?一个直接的方法就是把之前所有的feature直接concat到这一层的输入,我们每一层的主干channel比较小,每层只学一点点应该学的。这样用显式的concat来替代掉了隐式的计算“拷贝“。

细节:由于输入的channel会随着深度增加而增加,因此每个stage后使用了类似ResNet的bottleneck1*1来降低输入channel。

效果:

  • 比较好进行反向传播,前层会比较好的受到梯度的监督。

  • 参数量降低,计算高效。

  • 分类器建在所有层的feature上,从相对光滑到粗糙的决策函数的线性组合来cls。对比只在最后一层,粗糙的决策面。

  • 最终在ImageNet等数据集上,同等计算量下都比当时state-of-the-art的网络表现要好。

彩蛋:如果没有data augmention,CIFAR-100下,ResNet表现下降很多,DenseNet下降不多,说明DenseNet泛化性能更强。

工作3:Multi-scale Dense Network

Insight:人辨别简单和难的物体,反应时间不同。神经网络能否分辨简单和复杂的任务?

目的:图像分类上,高效利用计算资源,简单的任务更快,复杂的任务稍微慢一点,平均速度提升。每层都有一个cls?不行,downsample的作用会很重要。

方法:为了在浅层时来判断是否达到置信要求,我们希望能在各个层都能加分类器来判断。由于downsample非常重要,在浅层(大feature)后直接接分类器,表现很差。如果将downsample提前,表现也很差。因此我们设计了二维结构,横轴代表深度,纵轴代表尺度,分类器只接在尺度比较小的feature上。并加入了dense connection。如果没有dense connection,各种cls的联合训练会导致冲突,可能前期的特征会被抵消掉。加上密集连接后,前期的特征会直接连上,解决了这个问题。

效果:在CIFAR-10、CIFAR-100和ImageNet上,我们在相同平均计算量下推理的平均准确率比state-of-the-art都要高。

————— 预告  —————

下周二早上 AI 科技评论将推出一场由康奈尔大学博士后黄高博士分享的 GAIR 大讲堂,主题为高效卷积神经网络的结构设计与探索,点击阅读原文了解详情并报名。


————— 新人福利 —————

关注AI 科技评论,回复 1 获取

【数百 G 神经网络 / AI / 大数据资源,教程,论文】


—————  AI 科技评论招人了  —————

AI 科技评论期待你的加入,和我们一起见证未来!

现诚招学术编辑、学术兼职、学术外翻

详情请点击招聘启事


—————  给爱学习的你的福利  —————

CCF ADL 系列又一诚意课程

两位全球计算机领域Top 10大神加盟

——韩家炜 & Philip S Yu

共13位专家,覆盖计算机学科研究热点

————————————————————

登录查看更多
1

相关内容

黄高,清华大学自动化系助理教授。2009年和2015年分别从北京航空航天大学和清华大学获得学士和博士学位。2015年至2018年为美国康奈尔大学计算机系博士后。其主要研究领域为机器学习和计算机视觉。其博士论文获得中国自动化学会优秀博士学位论文以及清华大学优秀博士论文一等奖。目前在NIPS,ICML,CVPR等国际顶级会议及IEEE多个汇刊共计发表学术论文30余篇,Google Scholar引用6000余次,单篇最高引用4000余次。曾获得全国百篇最具影响国际学术论文、CVPR最佳论文奖(DenseNet)、世界人工智能大会SAIL先锋奖以及吴文俊人工智能自然科学一等奖等奖励和荣誉。个人主页:https://www.tsinghua.edu.cn/publish/au/1714/2019/20190308143746059566193/20190308143746059566193_.html
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
深度学习DenseNet算法详解
数据挖掘入门与实战
7+阅读 · 2018年4月17日
一周精品论文分享-0325
深度学习与NLP
3+阅读 · 2018年3月28日
专栏 | 后RCNN时代的物体检测及实例分割进展
机器之心
3+阅读 · 2018年1月27日
CVPR 2017最佳论文 | 解析深度学习中的三大挑战
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
机器学习和数学
20+阅读 · 2017年10月13日
Graph Analysis and Graph Pooling in the Spatial Domain
Arxiv
8+阅读 · 2018年1月25日
VIP会员
相关资讯
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
深度学习DenseNet算法详解
数据挖掘入门与实战
7+阅读 · 2018年4月17日
一周精品论文分享-0325
深度学习与NLP
3+阅读 · 2018年3月28日
专栏 | 后RCNN时代的物体检测及实例分割进展
机器之心
3+阅读 · 2018年1月27日
CVPR 2017最佳论文 | 解析深度学习中的三大挑战
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
机器学习和数学
20+阅读 · 2017年10月13日
Top
微信扫码咨询专知VIP会员