宽度神经网络因其与高斯过程的等价性而受到了极大的关注,这使得它可以完美地拟合训练数据,同时保持泛化性能,这被称为良性过拟合。然而,现有的研究主要集中在浅层或有限深度的网络上,这使得我们有必要对具有无限深度层的宽神经网络进行全面分析,例如神经常微分方程(ODEs)和深度平衡模型(DEQs)。在这篇文章中,我们特别研究了深度平衡模型(DEQ),一个在各层之间共享权重矩阵的无限深度神经网络。我们的分析揭示,随着DEQ层的宽度逼近无穷大,它会收敛到一个高斯过程,从而确立了所谓的神经网络与高斯过程(NNGP)对应关系。值得注意的是,即使深度和宽度的极限互换,这种收敛性仍然存在,这在典型的无限深度多层感知器(MLP)网络中并没有观察到。此外,我们证明了相关的高斯向量对于任何成对不同的输入数据仍然是非退化的,确保使用NNGP核的相应核矩阵具有严格正的最小特征值。这些发现为研究DEQs的训练和泛化提供了基本要素,为这一领域的未来研究奠定了基础。

成为VIP会员查看完整内容
24

相关内容

【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
30+阅读 · 2023年10月4日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【TPAMI2022】双曲深度神经网络研究综述
专知会员服务
64+阅读 · 2021年12月29日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
29+阅读 · 2021年2月26日
专知会员服务
23+阅读 · 2020年9月15日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
30+阅读 · 2023年10月4日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【TPAMI2022】双曲深度神经网络研究综述
专知会员服务
64+阅读 · 2021年12月29日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
29+阅读 · 2021年2月26日
专知会员服务
23+阅读 · 2020年9月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员