误差梯度是神经网络训练过程中计算的方向和数量,用于以正确的方向和合适的量更新网络权重。 在深层网络或循环神经网络中,误差梯度可在更新中累积,变成非常大的梯度,然后导致网络权重的大幅更新,并因此使网络变得不稳定。在极端情况下,权重的值变得非常大,以至于溢出,导致NaN值。网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长会产生梯度爆炸。
也来谈谈RNN的梯度消失/爆炸问题
PaperWeekly
1+阅读 · 2020年11月30日
人脑是怎么防止梯度消失和梯度爆炸的?
极市平台
2+阅读 · 2020年10月25日
梯度消失和梯度爆炸问题的最完整解析
极市平台
1+阅读 · 2020年10月20日
微博推荐算法实践与机器学习平台演进
DataFunTalk
2+阅读 · 2020年8月20日
从ReLU到GELU,一文概览神经网络的激活函数
PaperWeekly
0+阅读 · 2019年12月21日
从ReLU到GELU,一文概览神经网络的激活函数
机器之心
1+阅读 · 2019年12月20日
HSIC简介:一个有意思的判断相关性的思路
PaperWeekly
4+阅读 · 2019年9月25日
面经 | 搜狗算法面经
CVer
2+阅读 · 2019年8月25日
参考链接
微信扫码咨询专知VIP会员