资源 | 对比ResNet: 超深层网络DiracNet的PyTorch实现

2017 年 11 月 14 日 机器之心

选自GitHub

机器之心编译

参与:蒋思源


本文介绍了最近更新的 DiracNet 实现项目,该项目实现了不带跳过连接的超深层网络,并且是对应论文的官方实现。机器之心简要介绍了该项目和论文。


如 ResNet 这样采取了跳过连接(skip-connections)的网络在图像识别基准上实现了非常优秀的性能,但这种网络并体会不到更深层级所带来的优势。因此我们可能会比较感兴趣如何学习非常深的表征,并挖掘深层网络所带来的优势。我们提出了一个简单的权重参数化(weight parameterization)方法,该方法将提升不带跳过连接的深层网络性能,且允许我们训练数百层的深度网络。我们提出来的 DiracNet 非常接近于宽 ResNet 的准确度,但也需要更多的参数。此外,我们发现只有 34 层的 DiracNet 在性能上要优于 ResNet-1000。我们提出的 Dirac 权重参数化在推断时能折叠进一个卷积核,因此它可以轻易地解释为类 VGG 的网络。


下图展示了随层级和宽度的变化,CIFAR-10 准确度的变化。


简介


简而言之,Dirac 参数化就是卷积核权重的求和并通过 Dirac delta 函数缩放:

conv2d(x, alpha * delta + W)

以下是简化后的 PyTorch 伪代码,其展示了我们用于训练 plain DiracNets(带有权重归一化)的函数:

def dirac_conv2d(input, W, alpha, beta)    
   return F.conv2d(input, alpha * dirac(W) + beta * normalize(W))

其中 alpha 和 beta 为缩放标量,normalize 为每一个特征图上的 L2 归一化。此外,我们还使用了 NCReLU(负的 CReLU)非线性激活函数:

def ncrelu(x):    
  return torch.cat([x.clamp(min=0), x.clamp(max=0)], dim=1)


代码


在本项目中,diracconv.py 文件为模块化的 DiracConv 定义、test.py 为单位测试文件、 diracnet-export.ipynb 文件为 ImageNet 预训练模型、 diracnet.py 文件为函数化的模型定义,最后的 train.py 为 ImageNet 训练代码。


依赖库的安装


首先实现本项目的模型需要已安装 PyTorch,但这里并不会详细解释如何安装这个模块。随后我们可以使用 pip 安装 torchnet:

pip install git+https://github.com/pytorch/tnt.git@master

使用 Python 捆绑包安装 OpenCV,即执行命令 conda install -c menpo opencv3(前提已安装 Anaconda),然后使用 OpenCV 转换 torchvision:

pip install git+https://github.com/szagoruyko/vision.git@opencv

最后,安装其它的 Python 包:

pip install -r requirements.txt

在 CIFAR 上训练 DiracNet-34-2 请运行以下命令:

python train.py --save ./logs/diracnets_$RANDOM$RANDOM --depth 34 --width 2

在 ImageNet 上训练 DiracNet-18 请运行以下命令:

python train.py --dataroot ~/ILSVRC2012/ --dataset ImageNet --depth 18 --save ./logs/diracnet_$RANDOM$RANDOM \                --batchSize 256 --epoch_step [30,60,90] --epochs 100 --weightDecay 0.0001 --lr_decay_ratio 0.1

nn.Module 代码


我们还提供了 DiracConv1d、DiracConv2d 和 DiracConv3d 等 API,它们使用的方法就像 nn.Conv1d、nn.Conv2d 和 nn.Conv3d,只不过我们提供的 API 使用的是 Dirac-parametrization。我们的训练代码并没有使用这些模块,但它十分有助于各位读者快速地实现 Dirac 层级。


预训练模型


我们将批量归一化和 Dirac 参数层级放入了 F.conv2d 的 weight 和 bias 张量中,因此我们的模型就像 VGG 或 AlexNet 那样简单方便地调用,它们都只调用了最基本的非线性和 conv2d 模块。diracnets.ipynb 文件中可以查看模型定义的函数与模块。


下面我们提供了 DiracNet-18-0.75 序列模型的打印输出结果,可作为读者的参考:

Sequential (  (conv): Conv2d(3, 48, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3))  (max_pool0): MaxPool2d (size=(3, 3), stride=(2, 2), padding=(1, 1), dilation=(1, 1))  (group0.block0.ncrelu): NCReLU()  (group0.block0.conv): Conv2d(96, 48, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group0.block1.ncrelu): NCReLU()  (group0.block1.conv): Conv2d(96, 48, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group0.block2.ncrelu): NCReLU()  (group0.block2.conv): Conv2d(96, 48, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group0.block3.ncrelu): NCReLU()  (group0.block3.conv): Conv2d(96, 48, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (max_pool1): MaxPool2d (size=(2, 2), stride=(2, 2), dilation=(1, 1))  (group1.block0.ncrelu): NCReLU()  (group1.block0.conv): Conv2d(96, 96, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group1.block1.ncrelu): NCReLU()  (group1.block1.conv): Conv2d(192, 96, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group1.block2.ncrelu): NCReLU()  (group1.block2.conv): Conv2d(192, 96, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group1.block3.ncrelu): NCReLU()  (group1.block3.conv): Conv2d(192, 96, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (max_pool2): MaxPool2d (size=(2, 2), stride=(2, 2), dilation=(1, 1))  (group2.block0.ncrelu): NCReLU()  (group2.block0.conv): Conv2d(192, 192, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group2.block1.ncrelu): NCReLU()  (group2.block1.conv): Conv2d(384, 192, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group2.block2.ncrelu): NCReLU()  (group2.block2.conv): Conv2d(384, 192, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group2.block3.ncrelu): NCReLU()  (group2.block3.conv): Conv2d(384, 192, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (max_pool3): MaxPool2d (size=(2, 2), stride=(2, 2), dilation=(1, 1))  (group3.block0.ncrelu): NCReLU()  (group3.block0.conv): Conv2d(384, 384, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group3.block1.ncrelu): NCReLU()  (group3.block1.conv): Conv2d(768, 384, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group3.block2.ncrelu): NCReLU()  (group3.block2.conv): Conv2d(768, 384,kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (group3.block3.ncrelu): NCReLU()  (group3.block3.conv): Conv2d(768, 384, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  (relu): ReLU ()  (avg_pool): AvgPool2d ()  (view): Flatten()  (fc): Linear (384 -> 1000) )

论文:DiracNets: Training Very Deep Neural Networks Without Skip-Connections


论文地址:https://arxiv.org/abs/1706.00388


我们为神经网络提出了一种新的权重参数化(weight parameterization)方法,这种方法可称之为 Dirac 参数化,它适用于广泛的网络架构。此外,通过使用上面的参数化方法,我们提出了一种新的 plain VGG-like 和 ResNet-like 架构。该架构没有使用任何跳过连接(skip-connections),我们称之为 DiracNet。这些网络可以训练数百层,且在 34 层的时候就超过了 1001 层的 ResNet 性能,且十分接近宽 ResNet(WRN)的准确度。我们应该注意训练 DiracNets 是一种端到端的方法,并不需要任何层级的预训练方法。我们相信该研究是迈向更简单和高效深度神经网络的重要方向。

图 3:a 为带有 Dirac 参数化的 plain 网络收敛情况。b 为带有 ReLU 和 NCReLU 激活函数的 plain Dirac 参数化网络的归一化直方图。

图 6:DiracNet 和 ResNet 在 ImageNet 上的收敛情况。



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com


登录查看更多
1

相关内容

神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
《动手学深度学习》(Dive into Deep Learning)PyTorch实现
专知会员服务
119+阅读 · 2019年12月31日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
【书籍】深度学习框架:PyTorch入门与实践(附代码)
专知会员服务
163+阅读 · 2019年10月28日
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
AI研习社
35+阅读 · 2019年6月10日
谷歌EfficientNet缩放模型,PyTorch实现登热榜
机器学习算法与Python学习
11+阅读 · 2019年6月4日
Github项目推荐 | Pytorch TVM 扩展
AI研习社
11+阅读 · 2019年5月5日
资源 | 最强预训练模型BERT的Pytorch实现(非官方)
全球人工智能
7+阅读 · 2018年10月18日
Github 项目推荐 | 用 PyTorch 0.4 实现的 YoloV3
AI研习社
9+阅读 · 2018年8月11日
教程 | 如何通过PyTorch上手Tensor Comprehensions?
机器之心
5+阅读 · 2018年3月12日
Arxiv
5+阅读 · 2020年3月16日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关资讯
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
AI研习社
35+阅读 · 2019年6月10日
谷歌EfficientNet缩放模型,PyTorch实现登热榜
机器学习算法与Python学习
11+阅读 · 2019年6月4日
Github项目推荐 | Pytorch TVM 扩展
AI研习社
11+阅读 · 2019年5月5日
资源 | 最强预训练模型BERT的Pytorch实现(非官方)
全球人工智能
7+阅读 · 2018年10月18日
Github 项目推荐 | 用 PyTorch 0.4 实现的 YoloV3
AI研习社
9+阅读 · 2018年8月11日
教程 | 如何通过PyTorch上手Tensor Comprehensions?
机器之心
5+阅读 · 2018年3月12日
Top
微信扫码咨询专知VIP会员