1. 正则化旨在通过对学习算法进行修改来减少模型的泛化误差。• 正则化正是解决深度学习中的过拟合和欠拟合问题的一个途径。• 正则化往往会增加模型的训练误差。

  2. Dropout的大体思想就是,在标准神经网络进行前向传播时,让某些神经元的激活值以一定的概率 停止工作。由于这样做会减少模型对局部特征的依赖,使得模型泛化能力提升,从而缓解过拟合问 题。

  3. 自适应学习率 指的是在训练过程中学习率可变,那么模型收敛速度会明显提升。三种常 用的自适应学习率算法:• Adagrad • RMSprop • Adam

  4. 批标准化是一种简化计算并又能保证数据原始的表达能力的解决内协变量移位问题的方法

成为VIP会员查看完整内容
53

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
11+阅读 · 2021年7月27日
边缘机器学习,21页ppt
专知会员服务
82+阅读 · 2021年6月21日
【ST2020硬核课】深度神经网络,57页ppt
专知会员服务
45+阅读 · 2020年8月19日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
深度学习网络调参技巧
AINLP
15+阅读 · 2019年11月15日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
视频+PPT▍AutoML技术现状与未来展望
36大数据
8+阅读 · 2019年2月21日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
深度学习面试100题(第31-35题)
七月在线实验室
8+阅读 · 2018年7月16日
【286页干货】一天搞懂深度学习
七月在线实验室
9+阅读 · 2018年1月30日
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
深度学习之DNN与反向传播算法
机器学习算法与Python学习
4+阅读 · 2017年9月11日
Arxiv
0+阅读 · 2021年8月17日
Arxiv
0+阅读 · 2021年8月15日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
10+阅读 · 2021年2月26日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月11日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
深度学习网络调参技巧
AINLP
15+阅读 · 2019年11月15日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
视频+PPT▍AutoML技术现状与未来展望
36大数据
8+阅读 · 2019年2月21日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
深度学习面试100题(第31-35题)
七月在线实验室
8+阅读 · 2018年7月16日
【286页干货】一天搞懂深度学习
七月在线实验室
9+阅读 · 2018年1月30日
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
深度学习之DNN与反向传播算法
机器学习算法与Python学习
4+阅读 · 2017年9月11日
相关论文
Arxiv
0+阅读 · 2021年8月17日
Arxiv
0+阅读 · 2021年8月15日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
10+阅读 · 2021年2月26日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月11日
Arxiv
7+阅读 · 2018年1月10日
微信扫码咨询专知VIP会员