深度学习已经在多个领域得到了广泛的使用,并取得了令人瞩目的成绩。然而优秀的网络结构设计在很 大程度上仍然依赖于研究者的先验知识和大量的实验验证,整个过程对于人力、算力等资源消耗巨大。因此,能否 让计算机自动地找到最适用于当前任务的神经网络结构成为了当前研究的热点。近年来,研究人员对神经网络结 构搜索(NeuralArchitectureSearch,NAS)进行了各种改进,相关研究工作复杂且丰富。为了让读者对神经网络结 构搜索方法有更清晰的了解,该文从神经网络结构搜索的三个维度:搜索空间、搜索策略和性能评估策略对现有方 法进行了分析,并提出了未来可能的研究方向。

目前,深 度 学 习 已 经 在 机 器 翻 译[1-3]、图 像 识 别[4-6]、语音处理[7-8]等多个领域得到了广泛应用,并 取得了十分优异的成绩。在传统深度学习方法中, 研究人员需要设计大量的特征来描述待解决的问 题,即“特征工程”。而在深度学习时代,神经网络模 型可以完成特征的抽取和学习,但网络结构却需要 人工设计。网络结构设计不仅消耗了大量人力和算 力资源,而且在很大程度上依赖于研究者的先验知 识和经验,由于知识的局限性,很难跳出原有的思维 范式,设计出更优秀的模型。而神经网络结构搜索 是一种让计算机自动地找到最适用于当前任务的神 经网络结构的技术,它的出现将研究人员从设计模 型结构的工作中解放出来。 神经网络结构搜索(NeuralArchitectureSearch), 在神经网络模型中有时也被称作神经网络架构搜索 或简称为网络结构搜索,是自动机器学习中一个必 不可少的环节。20世纪80年代,研究人员已经开 始使用进化算法对神经网络结构进行设计[9],之后 的很多 工 作 也 是 基 于 此 对 网 络 结 构 搜 索 进 行 探 索[10-12]。近些年,随着深度学习技术的发展,网络 结构搜索技术在越来越多任务中受到关注,在图像 分类[13-14]、语义分割[15]、语言建模[16-18]等任务上取 得了很好的结果。

图1展示了神经网络结构搜索方法的主要流 程,其中包括三个主要部分:设计搜索空间、选择搜 索策略以及进行性能评估。

成为VIP会员查看完整内容
49

相关内容

神经网络结构搜索(NAS)是一种自动化设计人工神经网络的技术。NAS可能的三个重要步骤:首先确定搜索空间, 而这个空间可以以一个人工设计的网络为起点;然后,我们需要确定所采用的优化算法, 比如用强化学习, 进化算法, 或者贝叶斯优化等;最后我们需要设计我们的评估方案, 如果评估搜索出来的算法是有卵用的算法。
大规模图神经网络研究综述
专知会员服务
80+阅读 · 2023年8月25日
卷积神经网络的可解释性研究综述
专知会员服务
89+阅读 · 2023年6月5日
面向多GPU的图神经网络训练加速
专知会员服务
23+阅读 · 2023年1月19日
面向图像分类的小样本学习算法综述
专知会员服务
62+阅读 · 2022年5月9日
神经网络加速器架构概述
专知会员服务
35+阅读 · 2022年4月23日
图神经网络综述
专知会员服务
197+阅读 · 2022年1月9日
专知会员服务
23+阅读 · 2021年10月14日
专知会员服务
114+阅读 · 2020年8月22日
专知会员服务
78+阅读 · 2020年8月4日
轻量级神经网络架构综述
专知会员服务
96+阅读 · 2020年4月29日
「基于通信的多智能体强化学习」 进展综述
基于深度学习的数据融合方法研究综述
专知
31+阅读 · 2020年12月10日
基于图神经网络的知识图谱研究进展
AI科技评论
20+阅读 · 2020年8月31日
深度学习模型可解释性的研究进展
专知
25+阅读 · 2020年8月1日
零样本图像识别综述论文
专知
21+阅读 · 2020年4月4日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关VIP内容
大规模图神经网络研究综述
专知会员服务
80+阅读 · 2023年8月25日
卷积神经网络的可解释性研究综述
专知会员服务
89+阅读 · 2023年6月5日
面向多GPU的图神经网络训练加速
专知会员服务
23+阅读 · 2023年1月19日
面向图像分类的小样本学习算法综述
专知会员服务
62+阅读 · 2022年5月9日
神经网络加速器架构概述
专知会员服务
35+阅读 · 2022年4月23日
图神经网络综述
专知会员服务
197+阅读 · 2022年1月9日
专知会员服务
23+阅读 · 2021年10月14日
专知会员服务
114+阅读 · 2020年8月22日
专知会员服务
78+阅读 · 2020年8月4日
轻量级神经网络架构综述
专知会员服务
96+阅读 · 2020年4月29日
相关资讯
「基于通信的多智能体强化学习」 进展综述
基于深度学习的数据融合方法研究综述
专知
31+阅读 · 2020年12月10日
基于图神经网络的知识图谱研究进展
AI科技评论
20+阅读 · 2020年8月31日
深度学习模型可解释性的研究进展
专知
25+阅读 · 2020年8月1日
零样本图像识别综述论文
专知
21+阅读 · 2020年4月4日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
相关基金
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员