由不同的随机初始化训练的神经网络权重集合,被称为深度集合,实现了最先进的精度和校准。最近引入的批量集成提供了一个更有效的参数替换。在本文中,我们不仅设计了权值,而且设计了超参数,以改善这两种情况下的技术状况。为了获得不依赖预算的最佳性能,我们提出了超深集合,这是一个简单的过程,涉及对不同超参数的随机搜索,它们本身在多个随机初始化中分层。其强大的性能突出的好处,结合模型的重量和超参数多样性。在批量集成和自调优网络的基础上,进一步提出了参数高效的超批量集成。该方法的计算和内存成本明显低于典型的集成。在图像分类任务上,通过MLP、LeNet和Wide ResNet 28-10架构,我们的方法在深度和批处理集成上都有所改进。

https://www.zhuanzhi.ai/paper/e7ca9fa3f26bba7844c576a522f29c63

成为VIP会员查看完整内容
12

相关内容

【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
【知乎】超越Lexical:用于文本搜索引擎的语义检索框架
专知会员服务
21+阅读 · 2020年8月28日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
22+阅读 · 2020年4月12日
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
谷歌最强 NLP 模型 BERT 解读
雷锋网
7+阅读 · 2018年10月23日
解读谷歌最强NLP模型BERT:模型、数据和训练
未来产业促进会
5+阅读 · 2018年10月20日
样本不平衡数据集防坑骗指南
人工智能前沿讲习班
8+阅读 · 2018年6月7日
Arxiv
0+阅读 · 2020年12月2日
Arxiv
8+阅读 · 2019年3月21日
VIP会员
相关VIP内容
【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
【知乎】超越Lexical:用于文本搜索引擎的语义检索框架
专知会员服务
21+阅读 · 2020年8月28日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
22+阅读 · 2020年4月12日
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
微信扫码咨询专知VIP会员