许多现有的神经结构搜索(NAS)解决方案依赖于下游训练进行结构评估,这需要大量的计算。考虑到这些计算带来了巨大的碳足迹,本文旨在探索一种绿色的(即环境友好的)NAS解决方案,无需训练即可评估架构。直观地说,由体系架构本身诱导的梯度直接决定了收敛和泛化的结果。这促使我们提出梯度核假设:梯度可以作为下游训练的粗粒度代理来评估随机初始化的网络。为了支持这一假设,我们进行了理论分析,并找到了一个与训练损失和验证性能有良好相关性的实用梯度核。根据这一假设,我们提出了一种新的基于内核的架构搜索方法KNAS。实验表明,KNAS在图像分类任务上比“先训练后测试”的方法更快地获得了具有竞争力的结果。此外,极低的搜索成本使其得到了广泛的应用。在两个文本分类任务中,搜索网络的性能也优于强基准RoBERTA-large。

http://proceedings.mlr.press/v139/xu21m.html

成为VIP会员查看完整内容
22

相关内容

专知会员服务
21+阅读 · 2021年9月28日
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
14+阅读 · 2021年9月23日
专知会员服务
19+阅读 · 2021年9月16日
专知会员服务
21+阅读 · 2021年8月23日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
24+阅读 · 2021年7月11日
专知会员服务
10+阅读 · 2021年3月21日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
谷歌提出MorphNet:网络规模更小、速度更快!
全球人工智能
4+阅读 · 2019年4月20日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
雷军强推:小米造最强超分辨率算法,现已开源
机器之心
7+阅读 · 2019年2月20日
李飞飞等人提出Auto-DeepLab:自动搜索图像语义分割架构
全球人工智能
5+阅读 · 2019年1月14日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
4+阅读 · 2019年2月8日
VIP会员
相关VIP内容
专知会员服务
21+阅读 · 2021年9月28日
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
14+阅读 · 2021年9月23日
专知会员服务
19+阅读 · 2021年9月16日
专知会员服务
21+阅读 · 2021年8月23日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
24+阅读 · 2021年7月11日
专知会员服务
10+阅读 · 2021年3月21日
微信扫码咨询专知VIP会员