高度超参数化的神经网络可以显示出令人好奇的强大的泛化性能——为了更好地理解这一现象,最近积累了大量的理论和实证研究。与之前的工作相比,通常认为性能是模型大小的函数,在本文中,我们实证地研究了训练集的大小在多个数量级上变化时的泛化性能。这些系统的实验导致了一些有趣的和潜在的非常有用的观察;也许最值得注意的是,对较小子集的数据的训练可以导致更可靠的模型选择决策,同时享受较小的计算开销。我们的实验进一步允许我们估计现代神经网络结构下公共数据集的最小描述长度,从而为基于Ocams -razor的原则模型选择铺平了道路。

https://deepmind.com/research/publications/Small-Data-Big-Decisions-Model-Selection-in-the-Small-Data-Regime

成为VIP会员查看完整内容
36

相关内容

【ICML2020】强化学习中基于模型的方法,279页ppt
专知会员服务
46+阅读 · 2020年10月26日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【ICML2020】对比多视角表示学习
专知会员服务
52+阅读 · 2020年6月28日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
Google:数据并行对神经网络训练用时的影响
干货 | AutoML 和神经架构搜索初探
AI科技评论
3+阅读 · 2018年8月1日
谷歌放大招!数据增强实现自动化
新智元
8+阅读 · 2018年6月4日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
13+阅读 · 2019年1月26日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
【ICML2020】强化学习中基于模型的方法,279页ppt
专知会员服务
46+阅读 · 2020年10月26日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【ICML2020】对比多视角表示学习
专知会员服务
52+阅读 · 2020年6月28日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
42+阅读 · 2020年6月23日
微信扫码咨询专知VIP会员