【Google 大脑】使用上千个优化任务学习超参数搜索策略,Using a thousand optimization task

2020 年 3 月 14 日 专知


我们提供TaskSet,一个用于训练和评估优化器的任务数据集。TaskSet在规模和多样性上都是独一无二的,它包含了超过1000个任务,从使用全连接或卷积神经网络的图像分类,到变分自编码器,再到各种数据集上的非卷保存流。作为此类数据集的一个示例应用程序,我们将探索元学习一个超参数的有序列表并按顺序进行尝试。通过从使用TaskSet生成的数据中学习这个超参数列表,我们实现了比随机搜索更大的样本效率提升。接下来,我们利用任务集的多样性和我们学习超参数列表的方法,对这些列表在各种环境下的泛化进行了实证研究,包括使用Resnet50的ImageNet分类和使用transformer的LM1B语言建模。作为这项工作的一部分,我们为所有的任务提供了开源代码,并为这些问题提供了2900万条训练曲线和相应的超参数。

https://www.zhuanzhi.ai/paper/fd6cde61607aad0a7bb871694b61a08e


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“HSS” 就可以获取【Google 大脑】使用上千个优化任务学习超参数搜索策略,Using a thousand optimization task》论文专知下载链接


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
【资源】元学习论文分类列表推荐
专知
19+阅读 · 2019年12月3日
Google Brain ICLR Talk:元学习的前沿与挑战
专知
27+阅读 · 2019年5月9日
Arxiv
4+阅读 · 2019年4月3日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
18+阅读 · 2019年1月16日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
6+阅读 · 2018年6月21日
VIP会员
相关VIP内容
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
相关论文
Arxiv
4+阅读 · 2019年4月3日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
18+阅读 · 2019年1月16日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
6+阅读 · 2018年6月21日
Top
微信扫码咨询专知VIP会员