【CVPR2021】用随机标签的神经架构搜索

2021 年 3 月 21 日 专知

Neural Architecture Search with Random Labels
现有的主流NAS算法通过子网络在验证集上的预测性能来进行模型搜索,但是在参数共享机制下,验证集上的预测性能和模型真实性能存在较大的差异。我们首次打破了这种基于预测性能进行模型评估的范式,从模型收敛速度的角度来进行子网络评估并假设:模型收敛速度越快,其对应的预测性能越高。

基于模型收敛性框架,我们发现模型收敛性与图像真实标签无关,便进一步提出使用随机标签进行超网络训练的新NAS范式-RLNAS。RLNAS在多个数据集(NAS-Bench-201,ImageNet)以及多个搜索空间(DARTS,MobileNet-like)进行了验证,实验结果表明RLNAS仅使用随机标签搜索出来的结构便能达到现有的NAS SOTA的水平。RLNAS初听比较反直觉,但其出乎意料的好结果为NAS社区提出了一组更强的基线,同时也进一步启发了对NAS本质的思考。
https://www.zhuanzhi.ai/paper/73ff2aa2c413ba1035d0c205173ca72a


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“NASR” 就可以获取【CVPR2021】用随机标签的神经架构搜索》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
20+阅读 · 2021年5月1日
专知会员服务
22+阅读 · 2021年5月1日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
62+阅读 · 2021年3月12日
专知会员服务
21+阅读 · 2021年3月9日
专知会员服务
32+阅读 · 2021年3月7日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
【CVPR2021】细粒度多标签分类
专知
44+阅读 · 2021年3月8日
【ICML 2020 】小样本学习即领域迁移
专知
5+阅读 · 2020年6月26日
Arxiv
0+阅读 · 2021年6月9日
Arxiv
8+阅读 · 2021年1月28日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年5月1日
专知会员服务
22+阅读 · 2021年5月1日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
62+阅读 · 2021年3月12日
专知会员服务
21+阅读 · 2021年3月9日
专知会员服务
32+阅读 · 2021年3月7日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
Top
微信扫码咨询专知VIP会员