Implicit regularization in deep learning is perceived as a tendency of gradient-based optimization to fit training data with predictors of minimal "complexity." The fact that only some types of data give rise to generalization is understood to result from them being especially amenable to fitting with low complexity predictors. A major challenge in formalizing this intuition is to define complexity measures that are quantitative yet capture the essence of data that admits generalization. With an eye towards this challenge, we provide the first analysis of implicit regularization in tensor factorization, equivalent to a certain non-linear neural network. We characterize the dynamics that gradient descent induces on the factorization, and establish a bias towards low tensor rank, in compliance with empirical evidence. Then, motivated by tensor rank capturing implicit regularization of a non-linear neural network, we empirically explore it as a measure of complexity, and find that it stays extremely low when fitting standard datasets. This leads us to believe that tensor rank may pave way to explaining both implicit regularization of neural networks, and the properties of real-world data translating this implicit regularization to generalization.


翻译:深层学习中隐含的正规化被视为一种趋势,即梯度优化,将培训数据与最低“复杂度”预测器相匹配。 事实上,只有某些类型的数据被理解为具有一般化倾向,因为某些类型的数据特别容易与低复杂度预测器相匹配。 将这种直觉正规化的一个主要挑战是界定具有定量的复杂度,但能捕捉接受一般化的数据的精髓。为了应对这一挑战,我们首次分析了在分量系数化中隐含的正规化,相当于某种非线性神经网络。我们根据经验证据,将梯度下降引发因素的动态描述为低发级,并形成对低发级的偏向。 之后,由强级获得非线性神经网络隐含的正规化的动力,我们实验性地把它作为一种复杂性的尺度加以探索,并发现当符合标准数据集时,它仍然极低。这使我们相信,十级的等级可能铺设解释神经网络隐含的正规化,以及将这种隐含的正规化转化为一般化的现实数据特性。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
误差反向传播——RNN
统计学习与视觉计算组
18+阅读 · 2018年9月6日
已删除
将门创投
3+阅读 · 2018年3月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
误差反向传播——RNN
统计学习与视觉计算组
18+阅读 · 2018年9月6日
已删除
将门创投
3+阅读 · 2018年3月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员