尽管在深度学习方面已经取得了巨大的实践进展,但我们对是什么使深度学习工作得很好以及为什么这样做缺乏清晰的理论理解。在本文中,我们采用“自然科学”的方法来构建深度学习的理论。我们首先确定在跨越各种不同背景的实际深度网络中出现的各种经验属性。然后,我们讨论了这些实证发现可以如何用来通知理论。具体而言,我们证明:(1)与监督学习相比,经过自监督学习训练的先进深度网络尽管过度参数化,但在特定条件下仍能实现有限的泛化差距。(2)具有相似性能和架构的模型通常会收敛到相似的内部表示,即使它们的训练方法有很大的不同(例如:监督学习和自监督学习)(3)插值分类器服从一种分布泛化形式——它们从训练分布中收敛到一种条件采样器类型。(4)深度网络的数据扩展特性对训练数据集的结构和噪声水平的变化具有鲁棒性。

https://dash.harvard.edu/handle/1/37372168

我们的发现强调,尽管缺乏最坏情况的保证,深度网络隐含地以可预测的、结构化的方式运行,从而为未来的理论分析奠定了基础。

成为VIP会员查看完整内容
41

相关内容

哈佛大学(Harvard University)是一所位于美国马萨诸塞州剑桥市(波士顿郊外)的私立大学,常春藤盟校成员之一。它的历史比美国悠久,是北美洲第一所大学,绰号为深红。哈佛与临近的麻省理工学院在世界上享有一流大学的声誉、财富和影响力,在英语系大学中的排名尤其突出。
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
【哈佛大学】深度学习理论实证探究
专知会员服务
42+阅读 · 2021年11月1日
《过参数化机器学习理论》综述论文
专知会员服务
45+阅读 · 2021年9月19日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年1月27日
Arxiv
0+阅读 · 2023年1月27日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
相关资讯
相关基金
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2023年1月27日
Arxiv
0+阅读 · 2023年1月27日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
14+阅读 · 2018年4月18日
微信扫码咨询专知VIP会员