神经网络搜索的关键步骤之一是评估候选网络结构的性能。现有方法要么直接在验证集上测量网络结构性能,要么学习一个预测器来估计性能。然而,这些方法要么计算成本高,要么非常不准确,这可能会严重影响搜索效率和性能。此外,由于很难在特定任务上对网络结构进行准确的性能标注,因此很难训练得到一个准确的性能预测器。在本文中,我们认为神经网络搜索可能不需要评估候选网络结构的绝对性能。相反,我们可能只需要得到一个网络结构与基线结构的相对优劣就足以进行搜索。然而,如何利用相对优劣信息作为奖励,以及如何很好地利用有限的标注网络结构数据,仍然是两个巨大的挑战。对此,我们提出了一种新型的对比神经架构搜索方法,该方法利用网络结构之间的对比结果作为奖励来进行搜索。具体而言,我们设计了一个网络结构比较器来估计候选网络结构优于基线结构的概率。此外,受课程学习启发,我们提出了一种基线结构更新方案,其可以在搜索过程中逐渐提升基线结构。我们还从理论上表明,学习网络结构比较器和直接优化网络结构间的排序是等价的。我们在三个搜索空间的进行了广泛实验,实验结果证明了我们方法较现有方法的优越性。

https://www.zhuanzhi.ai/paper/0a54d1bbf678ce4f33dc853415a33082

成为VIP会员查看完整内容
8

相关内容

专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
20+阅读 · 2021年4月2日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
10+阅读 · 2021年3月21日
【CVPR2021】神经网络中的知识演化
专知会员服务
24+阅读 · 2021年3月11日
专知会员服务
21+阅读 · 2021年3月9日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
ICCV2019 | 高精度,高效率点云三维重建 PointMVSNet
计算机视觉life
23+阅读 · 2019年9月5日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
换个角度看GAN:另一种损失函数
机器之心
16+阅读 · 2019年1月1日
大讲堂 | 渐进式神经网络结构搜索
AI研习社
5+阅读 · 2018年9月18日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
7+阅读 · 2017年12月26日
VIP会员
相关VIP内容
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
20+阅读 · 2021年4月2日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
10+阅读 · 2021年3月21日
【CVPR2021】神经网络中的知识演化
专知会员服务
24+阅读 · 2021年3月11日
专知会员服务
21+阅读 · 2021年3月9日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
相关资讯
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
ICCV2019 | 高精度,高效率点云三维重建 PointMVSNet
计算机视觉life
23+阅读 · 2019年9月5日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
换个角度看GAN:另一种损失函数
机器之心
16+阅读 · 2019年1月1日
大讲堂 | 渐进式神经网络结构搜索
AI研习社
5+阅读 · 2018年9月18日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
微信扫码咨询专知VIP会员