【斯坦福大学博士论文】监督和自监督深度学习泛化的理论见解

2022 年 7 月 9 日 专知


深度学习在经验上非常有影响力,但在理论理解上滞后。神经网络在结构和训练算法上都比传统的机器学习模型复杂得多,所以传统的理论直觉可能不适用。本文旨在从理论上更好地理解深度学习中的泛化问题。在论文的第一部分,我们研究了所有数据都有标签的监督设置下的泛化。我们的主要工具是泛化界:通过推导和研究泛化界,我们可以深入了解深度学习中影响泛化的各种因素。

首先,我们比较了正则化神经网络和神经正切核(NTK)的统计特性。通过建立神经网络常见的正则化训练损失与基于输出边际的泛化界之间的联系,我们证明了正则化神经网络比NTK解具有更好的泛化效果。其次,我们基于边缘的新概念——全层边缘,推导出神经网络的新泛化边界。与传统的基于规范的泛化测度相比,这些边界更依赖于数据,更具有深度,并突出了数据依赖的Lipschitzness在泛化中的重要作用。我们以经验证明,这些边界对于激励新的训练目标和理解和解密现有的正则化策略是有用的。

在论文的第二部分,我们把我们的焦点转向涉及未标记数据的设置。在这些情况下,很难证明为什么许多算法可以工作,尽管它们有广泛的经验成功。

首先,我们研究了视觉设置,并提出了一个理论框架来理解最近的半监督学习和领域适应的自训练算法。通过利用自然图像的现实结构属性,我们表明,在未标记数据上的自训练导致可证明的准确性增益。此外,我们的理论框架和相关假设可以用来表明,自监督对比学习在线性探针评价下获得了可证明的良好特征。最后,我们研究了为什么预训练语言模型可以帮助处理NLP设置中的下游任务。我们通过潜在的潜在变量生成模型来考虑预训练和下游任务相关的设置。我们表明,当这个生成模型是HMM或记忆增强HMM时,预训练允许解决下游任务的可证明保证。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“0987” 就可以获取【斯坦福大学博士论文】监督和自监督深度学习泛化的理论见解》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
3

相关内容

【斯坦福博士论文】具有学习约束的深度表示,239页pdf
专知会员服务
61+阅读 · 2022年9月13日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
专知会员服务
63+阅读 · 2021年4月11日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
专知会员服务
28+阅读 · 2020年10月24日
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
93+阅读 · 2020年6月19日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【MIT博士论文】数据高效强化学习,176页pdf
【MIT博士论文】优化理论与机器学习实践
专知
2+阅读 · 2022年6月30日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知
7+阅读 · 2022年6月12日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
【新书册】贝叶斯神经网络,41页pdf
专知
27+阅读 · 2020年6月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
7+阅读 · 2011年9月30日
Arxiv
39+阅读 · 2021年11月11日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Image Segmentation Using Deep Learning: A Survey
Arxiv
45+阅读 · 2020年1月15日
Arxiv
19+阅读 · 2018年6月27日
VIP会员
相关VIP内容
【斯坦福博士论文】具有学习约束的深度表示,239页pdf
专知会员服务
61+阅读 · 2022年9月13日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
专知会员服务
63+阅读 · 2021年4月11日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
专知会员服务
28+阅读 · 2020年10月24日
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
93+阅读 · 2020年6月19日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
7+阅读 · 2011年9月30日
Top
微信扫码咨询专知VIP会员