The task of hyper-parameter optimization (HPO) is burdened with heavy computational costs due to the intractability of optimizing both a model's weights and its hyper-parameters simultaneously. In this work, we introduce a new class of HPO method and explore how the low-rank factorization of the convolutional weights of intermediate layers of a convolutional neural network can be used to define an analytical response surface for optimizing hyper-parameters, using only training data. We quantify how this surface behaves as a surrogate to model performance and can be solved using a trust-region search algorithm, which we call autoHyper. The algorithm outperforms state-of-the-art such as Bayesian Optimization and generalizes across model, optimizer, and dataset selection. The PyTorch codes can be found in \url{https://github.com/MathieuTuli/autoHyper}.


翻译:超参数优化( HPO) 的任务由于同时优化模型重量和超参数的吸引力而承受了沉重的计算成本。 在这项工作中, 我们引入了一种新的 HPO 方法, 并探索如何使用进化神经网络中间层的进化权重的低位因数化来定义优化超参数的分析反应面面, 仅使用培训数据。 我们量化了该表面如何作为模拟性能的替代工具, 并且可以用信任区域搜索算法来解决, 我们称之为自动Hyper。 算法比Bayesian Optimization 等最新工艺型、 优化和 通用模型、 优化和 数据集选择 。 PyTorch 代码可以在\url{ https://github.com/MathieuTuli/autoHyper} 中找到 。

1
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年1月29日
Arxiv
0+阅读 · 2022年1月28日
Arxiv
6+阅读 · 2021年10月25日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
0+阅读 · 2022年1月29日
Arxiv
0+阅读 · 2022年1月28日
Arxiv
6+阅读 · 2021年10月25日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
3+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员