The field of Deep Learning is rich with empirical evidence of human-like performance on a variety of prediction tasks. However, despite these successes, the recent Predicting Generalization in Deep Learning (PGDL) NeurIPS 2020 competition suggests that there is a need for more robust and efficient measures of network generalization. In this work, we propose a new framework for evaluating the generalization capabilities of trained networks. We use perturbation response (PR) curves that capture the accuracy change of a given network as a function of varying levels of training sample perturbation. From these PR curves, we derive novel statistics that capture generalization capability. Specifically, we introduce two new measures for accurately predicting generalization gaps: the Gi-score and Pal-score, that are inspired by the Gini coefficient and Palma ratio (measures of income inequality), that accurately predict generalization gaps. Using our framework applied to intra and inter class sample mixup, we attain better predictive scores than the current state-of-the-art measures on a majority of tasks in the PGDL competition. In addition, we show that our framework and the proposed statistics can be used to capture to what extent a trained network is invariant to a given parametric input transformation, such as rotation or translation. Therefore, these generalization gap prediction statistics also provide a useful means for selecting the optimal network architectures and hyperparameters that are invariant to a certain perturbation.


翻译:尽管取得了这些成功,但最近预测深层学习(PGDL) NeurIPS 2020 年的竞争显示,需要更有力、更高效的网络概括化措施。在这项工作中,我们提出一个新的框架,用于评价受过培训的网络的通用能力。我们使用扰动反应曲线,将特定网络的准确性变化作为不同培训样本扰动的功能。我们从这些PR曲线中获取新的统计数据,以捕捉概括化能力。具体地说,我们引入了两种准确预测总体化差距的新措施:基数和Pal-Score,这是受基尼系数和帕尔马比率(收入不平等度衡量)的启发,可以准确预测总体化差距。我们使用我们适用于班级内部和班级之间抽样混杂的框架,我们比目前对PGDL 竞争中大多数任务采取的最新措施,我们展示了更好的预测分数。此外,我们展示了我们的框架和拟议中的核心值,即核心值和核心值,这两类统计数据可以用来对总体的预测结构进行什么程度的精确化。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
53+阅读 · 2021年1月20日
专知会员服务
45+阅读 · 2020年10月31日
【CMU】最新深度学习课程, Introduction to Deep Learning
专知会员服务
38+阅读 · 2020年9月12日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
Link prediction | 三篇SEAL相关工作小结
AINLP
48+阅读 · 2020年11月17日
word2Vec总结
AINLP
3+阅读 · 2019年11月2日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
38+阅读 · 2020年12月2日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
3+阅读 · 2018年2月20日
VIP会员
相关VIP内容
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
53+阅读 · 2021年1月20日
专知会员服务
45+阅读 · 2020年10月31日
【CMU】最新深度学习课程, Introduction to Deep Learning
专知会员服务
38+阅读 · 2020年9月12日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
相关资讯
Link prediction | 三篇SEAL相关工作小结
AINLP
48+阅读 · 2020年11月17日
word2Vec总结
AINLP
3+阅读 · 2019年11月2日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员