本文通过最小化验证损失代理来搜索最佳神经网络结构。现有的神经结构搜索(NAS)方法在给定最新的网络权重的情况下发现基于验证样本的最佳神经网络结构。但是,由于在NAS中需要多次重复进行反向传播,使用大量验证样本进行反向传播可能会非常耗时。在本文中,我们建议通过学习从神经网络结构到对应的损失的映射来近似验证损失情况。因此,可以很容易地将最佳神经网络结构识别为该代理验证损失范围的最小值。同时,本文进一步提出了一种新的采样策略,可以有效地近似损失情况。理论分析表明,与均匀采样相比,我们的采样策略可以达到更低的错误率和更低的标签复杂度。在标准数据集上的实验结果表明,通过本方法进行神经结构搜索可以在较低的搜索时间内搜索到精度很高的网络结构。

成为VIP会员查看完整内容
23

相关内容

【ICML2020】通过神经引导的A*搜索学习逆合成设计
专知会员服务
16+阅读 · 2020年8月18日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
专知会员服务
73+阅读 · 2020年5月21日
【CVPR2020】用多样性最大化克服单样本NAS中的多模型遗忘
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
介绍高维超参数调整 - 优化ML模型的最佳实践
AI研习社
7+阅读 · 2019年4月17日
李飞飞等人提出Auto-DeepLab:自动搜索图像语义分割架构
全球人工智能
5+阅读 · 2019年1月14日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
Arxiv
4+阅读 · 2019年2月18日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
Arxiv
5+阅读 · 2018年9月11日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关资讯
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
介绍高维超参数调整 - 优化ML模型的最佳实践
AI研习社
7+阅读 · 2019年4月17日
李飞飞等人提出Auto-DeepLab:自动搜索图像语义分割架构
全球人工智能
5+阅读 · 2019年1月14日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
微信扫码咨询专知VIP会员