Residual networks (ResNets) have displayed impressive results in pattern recognition and, recently, have garnered considerable theoretical interest due to a perceived link with neural ordinary differential equations (neural ODEs). This link relies on the convergence of network weights to a smooth function as the number of layers increases. We investigate the properties of weights trained by stochastic gradient descent and their scaling with network depth through detailed numerical experiments. We observe the existence of scaling regimes markedly different from those assumed in neural ODE literature. Depending on certain features of the network architecture, such as the smoothness of the activation function, one may obtain an alternative ODE limit, a stochastic differential equation or neither of these. These findings cast doubts on the validity of the neural ODE model as an adequate asymptotic description of deep ResNets and point to an alternative class of differential equations as a better description of the deep network limit.


翻译:残余网络(ResNets)在模式识别方面表现出了令人印象深刻的结果,最近由于与神经普通差异方程式(神经普通数方程式)的明显联系,在理论上引起了相当大的兴趣。这种联系取决于网络重量的趋同,随着层数的增加而顺利发挥作用。我们通过详细的数字实验调查通过随机梯度梯度梯度梯度梯度下降所训练的重量的特性及其与网络深度的扩大。我们观察到存在着与神经代码文献中假设的显著不同的比例化制度。根据网络结构的某些特点,例如激活功能的顺利性,人们可以获得替代的 ODE 限值、 随机差异方程式等。这些结果使人怀疑神经代码模型作为深ResNet的适当的非象征性描述的有效性,并指明不同方程式的替代类别,以更好地描述深网络限值。

13
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
一文读懂Faster RCNN
极市平台
5+阅读 · 2020年1月6日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
7+阅读 · 2021年5月13日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员