成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
梯度消失与爆炸问题
关注
9
在反向传播过程中需要对激活han函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加这就是梯度爆炸。同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少这就是梯度消失。
综合
百科
VIP
热门
动态
论文
精华
Residual Tensor Train: A Quantum-inspired Approach for Learning Multiple Multilinear Correlations
Arxiv
0+阅读 · 2022年8月2日
Residual Tensor Train: a Flexible and Efficient Approach for Learning Multiple Multilinear Correlations
Arxiv
0+阅读 · 2021年8月19日
Input-Output Equivalence of Unitary and Contractive RNNs
Arxiv
0+阅读 · 2019年10月30日
Convolution Aware Initialization
Arxiv
0+阅读 · 2017年2月27日
Kronecker Recurrent Units
Arxiv
0+阅读 · 2017年12月31日
Kronecker Recurrent Units
Arxiv
0+阅读 · 2017年11月10日
Rotational Unit of Memory
Arxiv
0+阅读 · 2017年10月26日
Training of Deep Neural Networks based on Distance Measures using RMSProp
Arxiv
0+阅读 · 2017年8月6日
参考链接
父主题
反向传播
神经网络
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top