An interesting observation in artificial neural networks is their favorable generalization error despite typically being extremely overparameterized. It is well known that the classical statistical learning methods often result in vacuous generalization errors in the case of overparameterized neural networks. Adopting the recently developed Neural Tangent (NT) kernel theory, we prove uniform generalization bounds for overparameterized neural networks in kernel regimes, when the true data generating model belongs to the reproducing kernel Hilbert space (RKHS) corresponding to the NT kernel. Importantly, our bounds capture the exact error rates depending on the differentiability of the activation functions. In order to establish these bounds, we propose the information gain of the NT kernel as a measure of complexity of the learning problem. Our analysis uses a Mercer decomposition of the NT kernel in the basis of spherical harmonics and the decay rate of the corresponding eigenvalues. As a byproduct of our results, we show the equivalence between the RKHS corresponding to the NT kernel and its counterpart corresponding to the Mat\'ern family of kernels, showing the NT kernels induce a very general class of models. We further discuss the implications of our analysis for some recent results on the regret bounds for reinforcement learning and bandit algorithms, which use overparameterized neural networks.


翻译:在人工神经网络中,一个有趣的观察是,人工神经网络的偏好一般化错误,尽管通常被过分过度分化。众所周知,古典统计学习方法往往导致在超分度神经网络中出现失常的泛化错误。采用最近开发的神经内核(NT)内核理论,我们证明在内核系统中,当真正的数据生成模型属于与NT内核相对应的再生产内核Hilbert空间(RKHS)的衰变率时,对超分神经网络来说是一致的。重要的是,我们的界限根据激活功能的可变性来捕捉准确的错误率。为了建立这些界限,我们建议将NT内核的增益作为衡量学习问题复杂性的尺度。我们的分析利用了NT内核内核网络在NT内核和对等值的等值之间的等同度,我们用LKHS网络对NT内核的内核和对等值的内核分析,我们用NT内核内核的内核的内核的内核对等值来进一步解释。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
已删除
架构文摘
3+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年12月3日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
9+阅读 · 2020年2月15日
Arxiv
3+阅读 · 2018年8月17日
VIP会员
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
已删除
架构文摘
3+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员