We consider shallow (single hidden layer) neural networks and characterize their performance when trained with stochastic gradient descent as the number of hidden units $N$ and gradient descent steps grow to infinity. In particular, we investigate the effect of different scaling schemes, which lead to different normalizations of the neural network, on the network's statistical output, closing the gap between the $1/\sqrt{N}$ and the mean-field $1/N$ normalization. We develop an asymptotic expansion for the neural network's statistical output pointwise with respect to the scaling parameter as the number of hidden units grows to infinity. Based on this expansion, we demonstrate mathematically that to leading order in $N$, there is no bias-variance trade off, in that both bias and variance (both explicitly characterized) decrease as the number of hidden units increases and time grows. In addition, we show that to leading order in $N$, the variance of the neural network's statistical output decays as the implied normalization by the scaling parameter approaches the mean field normalization. Numerical studies on the MNIST and CIFAR10 datasets show that test and train accuracy monotonically improve as the neural network's normalization gets closer to the mean field normalization.


翻译:我们考虑浅度(单隐性层)神经网络,在接受有关隐性梯度下降的培训时,将神经网络的性能定性为隐藏单位数量($美元)和梯度下降步骤增长至无限。我们特别调查了不同比例化计划的影响,导致神经网络的不同正常化,对网络统计产出的影响,缩小了1美元/ sqrt{N}美元和平均字段1/N美元之间的差额。我们为神经网络的统计产出发展了一个无症状的扩展,随着隐藏单位数量增长到无限的缩放参数,其比例化参数与缩放参数相近。基于这一扩展,我们从数学上表明,在以美元为主的排序方面,不存在偏差性交易,因为随着隐藏单位数量的增加和时间的增加,偏差和差异都有所减少。此外,我们还表明,随着规模化参数接近平均字段正常化,神经网络的变异性研究将更接近稳定的域域域域。我们从神经系统进行更精确的测试,以更接近稳定的域域域域域变。

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
SIGIR|乘风破浪的AI华人学者们
学术头条
4+阅读 · 2020年7月19日
已删除
德先生
53+阅读 · 2019年4月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月10日
Arxiv
0+阅读 · 2021年6月10日
Arxiv
0+阅读 · 2021年6月9日
Arxiv
0+阅读 · 2021年6月6日
VIP会员
相关资讯
SIGIR|乘风破浪的AI华人学者们
学术头条
4+阅读 · 2020年7月19日
已删除
德先生
53+阅读 · 2019年4月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员