Fine-tuning from pre-trained ImageNet models has been a simple, effective, and popular approach for various computer vision tasks. The common practice of fine-tuning is to adopt a default hyperparameter setting with a fixed pre-trained model, while both of them are not optimized for specific tasks and time constraints. Moreover, in cloud computing or GPU clusters where the tasks arrive sequentially in a stream, faster online fine-tuning is a more desired and realistic strategy for saving money, energy consumption, and CO2 emission. In this paper, we propose a joint Neural Architecture Search and Online Adaption framework named NASOA towards a faster task-oriented fine-tuning upon the request of users. Specifically, NASOA first adopts an offline NAS to identify a group of training-efficient networks to form a pretrained model zoo. We propose a novel joint block and macro-level search space to enable a flexible and efficient search. Then, by estimating fine-tuning performance via an adaptive model by accumulating experience from the past tasks, an online schedule generator is proposed to pick up the most suitable model and generate a personalized training regime with respect to each desired task in a one-shot fashion. The resulting model zoo is more training efficient than SOTA models, e.g. 6x faster than RegNetY-16GF, and 1.7x faster than EfficientNetB3. Experiments on multiple datasets also show that NASOA achieves much better fine-tuning results, i.e. improving around 2.1% accuracy than the best performance in RegNet series under various constraints and tasks; 40x faster compared to the BOHB.


翻译:从经过培训的图像网络模型中进行微调,对于各种计算机视觉任务来说,是一种简单、有效和受欢迎的方法。微调的常见做法是采用一个带有固定的预培训模型的默认超参数设置,而这两种模型在特定任务和时间限制方面都不是优化的。此外,在云计算或 GPU 集群中,任务在一条流中相继到达,更快捷的在线微调是一种更理想和现实的节省资金、能源消耗和二氧化碳排放的战略。在本文中,我们建议采用名为NASOA的神经结构搜索和在线适应联合框架,以便应用户的要求,更快地进行面向任务的微调。具体地说,NASOA首先采用离线的超常超常超常超常超常的超常超常超常超常超常超常超常的超常参数设置。我们提出一个新的联合区块和宏观搜索空间,以便进行灵活和高效的搜索。然后,通过一个适应性能模型来估算微调的绩效。我们建议在线时间表生成一个最合适的模型,以收集最合适的模型,并产生个人化的培训系统化系统化的系统系统,比SOB系统在1比SOB快速的多级标准的系统3中,从而显示比SB的快速的SBAAA的进度。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
预训练语言模型fine-tuning近期进展概述
专知会员服务
37+阅读 · 2021年4月9日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
89+阅读 · 2021年1月17日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年11月5日
Arxiv
0+阅读 · 2021年10月6日
Arxiv
9+阅读 · 2021年2月25日
Arxiv
5+阅读 · 2020年3月26日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关VIP内容
预训练语言模型fine-tuning近期进展概述
专知会员服务
37+阅读 · 2021年4月9日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
89+阅读 · 2021年1月17日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年11月5日
相关论文
Top
微信扫码咨询专知VIP会员