深度学习为何泛化能力好? 探究《 深度学习中的隐式正则化》从矩阵和张量分解中得到的教训,141页ppt

2021 年 4 月 5 日 专知


深度神经网络泛化的神秘能力被认为源于隐式正则化,一种基于梯度的优化的趋势,以拟合训练数据与低复杂度的预测器。“形式化这种直觉的一个主要挑战是,我们缺乏对复杂性的度量,既要量化,又要捕捉承认泛化的数据的本质(图像、音频、文本等)。考虑到这一挑战,我将介绍最近的隐式正则化在矩阵分解(等价于线性神经网络)和张量分解(等价于某种类型的非线性神经网络)中的分析。通过动态描述,我将建立隐式的低秩正则化,不同于任何类型的范数最小化,与先前的信念相反。然后,由于张量秩捕获非线性神经网络的隐式正则化,我将建议将其作为复杂度的度量,并表明在拟合标准数据集时它保持极低的水平。这就产生了张量秩解释神经网络的隐式正则化和将其转化为泛化的真实数据的特性的可能性。


http://www.ipam.ucla.edu/abstract/?tid=16593&pcode=TMWS1


目录:

1 深度学习隐式正则化 Implicit Regularization in Deep Learning 

2 矩阵分解 Matrix Factorization 

3 CP张量分解 CP Tensor Factorization 

4 张量秩 Tensor Rank as Measure of Complexity 

5 结论 Conclusion





专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“IRDL” 就可以获取深度学习为何泛化能力好?探究《 深度学习中的隐式正则化》从矩阵和张量分解中得到的教训,141页ppt》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

边缘机器学习,21页ppt
专知会员服务
82+阅读 · 2021年6月21日
【ACML2020】张量网络机器学习:最近的进展和前沿,109页ppt
专知会员服务
54+阅读 · 2020年12月15日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【新书册】贝叶斯神经网络,41页pdf
专知
27+阅读 · 2020年6月3日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
深度学习了解一下(附53页Slides)
专知
48+阅读 · 2019年5月20日
Arxiv
5+阅读 · 2018年5月31日
Arxiv
4+阅读 · 2018年4月10日
VIP会员
Top
微信扫码咨询专知VIP会员