如何发现「将死」的ReLU?可视化工具TensorBoard助你一臂之力

2019 年 11 月 15 日 CVer

点击上方“CVer”,选择加"星标"或“置顶”

重磅干货,第一时间送达

本文转载自:机器之心

作者:Jithin Jayan    参与:魔王、张倩

深度学习模型训练中会出现各种各样的问题,比如梯度消失、梯度爆炸,以及 Dying ReLU。那么如何及时发现这些问题并找出解决方案呢?本文以 Dying ReLU 问题为例,介绍了如何使用可视化工具 TensorBoard 发现该问题,并提供了不同解决思路。


本文介绍了如何利用可视化工具 TensorBoard 发现「Dying ReLU 问题」。


什么是 ReLU?


ReLU 即修正线性单元(Rectified Linear Unit),是人工神经网络中的一种激活函数。通常情况下,ReLU 是最常使用的激活函数。其主要原因在于 ReLU 不会遇到梯度消失问题。ReLU 的数学公式为:


另外一种表达式为:


其函数图像如下所示:


注意,该函数并非线性,其输出是非线性的。


ReLU 的导数是:


当 x=0 时,ReLU 的导数是未定义的。


什么是 Dying ReLU 问题?


ReLU 的主要优势在于:其输出为 0 和 1,(无需在反向传播过程中乘以非常小的值,)从而解决了梯度消失问题。然而,它也存在缺陷。由于它对每个负值的输出均为 0,ReLU 神经元可能陷入负值中,持续输出 0,且无法恢复。这叫做 Dying ReLU 问题。这个问题非常严重,因为一旦神经元死亡,它基本上学不到任何信息,从而导致网络的大部分无法工作。


利用 TensorBoard 检测 Dying ReLU 问题


使用以下代码创建随机样本:


x 表示大小为 200k x 4 的数组,其数值均从 (-1,0) 区间内均匀采样得到。该数组内绝大部分数值为负,是 ReLU 最不喜欢的一类输入。将该数据按照 7:3 的比例分割为训练集和测试集。


使用一个具备 ReLU 激活函数的一层简单网络。随机初始化权重,将偏差初始化为 0。


现在,初始化 TensorBoard 变量。每个 epoch 都需要梯度,因此将 write_grads 初始化为 True。


最后拟合模型,在 callbacks 参数中使用 TensorBoard 变量。


绘制训练损失和验证损失的图像。


所有 epoch 的验证损失(上)和训练损失(下)。


从上图中,我们可以清晰地看到模型损失没有降低,这意味着模型停止了学习。现在使用 TensorBoard 对密集层的梯度和输出进行可视化。


密集层输出(左)和密集层梯度(右)。


从上图中我们可以看到,对于所有 epoch,密集层梯度都为 0,输出也均为 0。梯度图显示出,一旦梯度变成 0,模型试图挣脱这种情况,但它已经完全死亡,这从损失图中也能看出,因为损失没有随时间发生变化,说明模型停止学习或者学不到任何信息。


添加层


现在,使用具备同样 ReLU 函数的三层网络,看看上述问题是否解决。本文使用如下网络:


这是一个三层网络,所有层的激活函数均为 ReLU。


现在,通过 TensorBoard 观察所有层的梯度:


Dense_3 梯度(左)、Dense_2 梯度(中)、Dense_1 梯度(右)。


从上图中可以看到,添加层并没有解决 dying ReLU 问题,所有层的梯度仍然为 0,这些梯度被反向传播至模型其他层,从而影响模型的性能。


解决方案


1. 增加数据规模会有帮助吗?


不会!如果新数据与原有数据属于同一分布,则在训练集中添加这些新数据是无用的。不过,为同样的问题收集一个新数据集可能是一种解决方案。


2. 添加 Dropout 会有帮助吗?


Dropout 与 ReLU 的输出没有任何关系,因此添加或者更改 Dropout 对 dying ReLU 没有影响。


3. 添加层会有帮助吗?


不会。如上所述,添加层对解决 dying ReLU 问题没有帮助。


4. 增加训练 epoch 会有帮助吗?


不会,虽然每个 epoch 结束后都会更新权重,但是由于神经元死亡,梯度为 0,使得权重无法得到更新。权重一直不变,使用相同的权重计算梯度只能得到 0,因此这对解决 dying ReLU 问题没有帮助。


5. 改变权重初始化会有帮助吗?


我们先来尝试不同的权重初始化器,并绘制其梯度和输出。下图是为使用 ReLU 激活函数的密集层梯度绘制的图,这四个网络使用的权重初始化器分别是:he_normal、he_uniform、ecun_normal 和 random_uniform。


he_normal(左)和 he_uniform(右)。


lecun_uniform(左)和 random_uniform(右)。


从上图中我们可以看到,权重初始化对解决 dying ReLU 问题没有帮助。从 he_normal、he_uniform 和 lecun_normal 的图示中可以看到,在初始化阶段有轻微的改善,但是随着 epoch 数量的增加,导数趋向于 0。


由于输入多为负值,我们使用以下代码将权重初始化为负值:


分配给权重的值均从 (-1,0) 区间内随机均匀采样得到,这与输入的分布相同。该网络的梯度和输出如下图所示:


dense_1 输出(左)、dense_1 梯度(右)。


从上图中同样可以观察到,随着 epoch 数量的增加,梯度变为 0,输出也集中于 0。因此我们可以认为改变初始权重是解决 dying ReLU 问题的一种办法,但是需要确保模型不要运行太多 epoch,因为这又会导致 dying ReLU 问题。事实上,从这些图中可以看出,改变初始权重对解决 dying ReLU 问题并没有太大帮助。


6. 改变激活函数会有帮助吗?


可能会。那么要用哪种函数替代 ReLU 呢?我们可以使用 tanh 和 Sigmoid 函数。使用 ReLU 的变体 Leaky ReLU 也可以避开该问题。但是,在为该实验创建的示例中,以上所有函数均失败了,因为它们都遭遇了梯度消失问题。当我们需要在梯度消失和 Dying ReLU 中进行权衡时,有动静总比没有好。遇到梯度消失问题后,模型仍在学习,而在 Dying ReLU 中没有学习,学习过程被中断了。


这时候,Leaky ReLU 的加强版 SELU (Scaled Exponential Linear Units) 就派上用场了。SELU 激活函数可以自行归一化神经网络,即归一化后网络权重和偏差的均值为 0,方差为 1。SELU 的主要优势是不会遭遇梯度消失和梯度爆炸,同时也不会出现激活函数死亡现象。关于 SELU 的更多信息,参见论文《Self-Normalizing Neural Networks》


注意:SELU 必须与 lecun_normal 初始化一起使用,且将 AlphaDropout 作为 dropout。对于以上数据集,我们可以使用以下网络:


该网络密集层的梯度和输出如下图所示:


从梯度图中可以看出,梯度有所改善,逐渐远离 0。从输出图中可以看出,具备 SELU 激活函数的密集层输出值很小,但也不像之前示例那样输出为 0。因此,即使在最糟糕的情况下,SELU 也比 ReLU 效果好。


结论


训练和使用深度神经网络时,实时监控损失和梯度情况是一种不错的做法,有助于发现深度学习模型训练过程中的大部分问题。如果你不知道如何发现和解决问题,那么写深度网络是没有意义的。本文只涉及了众多问题的冰山一角。每个使用深度学习和人工神经网络的人总会遇到激活函数死亡问题,一着不慎就要浪费数个小时重新训练模型,因为这时只改变模型参数已经没用了。由于 ReLU 是大部分深度学习问题中最常用的激活函数,因此大家一定要谨慎地避免该问题。而有了 TensorBoard 之后,你可以轻松发现该问题。


原文链接:https://medium.com/@jithinjayan1993/is-relu-dead-27943b50102


重磅!CVer学术交流群已成立


扫码添加CVer助手,可申请加入CVer-目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪&去雾&去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索等群。一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡)

▲长按加群


▲长按关注我们

麻烦给我一个在看!

登录查看更多
0

相关内容

【经典书】概率统计导论第五版,730页pdf
专知会员服务
237+阅读 · 2020年7月28日
最新《自动微分手册》77页pdf
专知会员服务
100+阅读 · 2020年6月6日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
【2020新书】如何认真写好的代码和软件,318页pdf
专知会员服务
63+阅读 · 2020年3月26日
PyTorch模型训练特征图可视化(TensorboardX)
极市平台
33+阅读 · 2019年6月29日
可视化循环神经网络的注意力机制
论智
22+阅读 · 2018年9月23日
深度学习面试100题(第31-35题)
七月在线实验室
8+阅读 · 2018年7月16日
激活函数初学者指南
论智
6+阅读 · 2018年5月15日
利用Python实现卷积神经网络的可视化
机器学习算法与Python学习
5+阅读 · 2018年3月30日
深度学习(可视化部分)-使用keras识别猫咪
北京思腾合力科技有限公司
10+阅读 · 2017年11月30日
入门 | 一文概览深度学习中的激活函数
深度学习世界
4+阅读 · 2017年11月3日
高效使用 Python 可视化工具 Matplotlib
Python开发者
8+阅读 · 2017年7月3日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
5+阅读 · 2018年4月30日
VIP会员
相关资讯
PyTorch模型训练特征图可视化(TensorboardX)
极市平台
33+阅读 · 2019年6月29日
可视化循环神经网络的注意力机制
论智
22+阅读 · 2018年9月23日
深度学习面试100题(第31-35题)
七月在线实验室
8+阅读 · 2018年7月16日
激活函数初学者指南
论智
6+阅读 · 2018年5月15日
利用Python实现卷积神经网络的可视化
机器学习算法与Python学习
5+阅读 · 2018年3月30日
深度学习(可视化部分)-使用keras识别猫咪
北京思腾合力科技有限公司
10+阅读 · 2017年11月30日
入门 | 一文概览深度学习中的激活函数
深度学习世界
4+阅读 · 2017年11月3日
高效使用 Python 可视化工具 Matplotlib
Python开发者
8+阅读 · 2017年7月3日
Top
微信扫码咨询专知VIP会员