Mobile and embedded platforms are increasingly required to efficiently execute computationally demanding DNNs across heterogeneous processing elements. At runtime, the available hardware resources to DNNs can vary considerably due to other concurrently running applications. The performance requirements of the applications could also change under different scenarios. To achieve the desired performance, dynamic DNNs have been proposed in which the number of channels/layers can be scaled in real time to meet different requirements under varying resource constraints. However, the training process of such dynamic DNNs can be costly, since platform-aware models of different deployment scenarios must be retrained to become dynamic. This paper proposes Dynamic-OFA, a novel dynamic DNN approach for state-of-the-art platform-aware NAS models (i.e. Once-for-all network (OFA)). Dynamic-OFA pre-samples a family of sub-networks from a static OFA backbone model, and contains a runtime manager to choose different sub-networks under different runtime environments. As such, Dynamic-OFA does not need the traditional dynamic DNN training pipeline. Compared to the state-of-the-art, our experimental results using ImageNet on a Jetson Xavier NX show that the approach is up to 3.5x (CPU), 2.4x (GPU) faster for similar ImageNet Top-1 accuracy, or 3.8% (CPU), 5.1% (GPU) higher accuracy at similar latency.


翻译:移动和嵌入平台越来越需要高效率地在各个不同处理元素中执行计算要求的 DNN 。 运行时, DNN 可用的硬件资源可能因其他同时运行的应用而有很大差异。 应用程序的性能要求也可能在不同情况下发生变化。 为了实现预期的性能,提出了动态 DNN 。 为了实现预期的性能, 提出了动态 DNN 。 动态 DNN 可以实时缩放频道/ 级数, 以满足不同资源制约下的不同要求。 但是, 动态 DNNN 的培训过程可能成本高昂, 因为不同部署情景的平台认知模型必须重新培训, 才能成为动态 DNNNNNNE培训管道。 与最先进的、 最先进的平台的 DNNNNNNNW 模式(即一次性网络) 相比, 动态- OFA 预示一系列子网络, 以静态的 OFA主干模式为基础, 并包含在不同的运行时环境中选择不同子网络的运行时间管理器管理器。 因此, DVCP- 不需要传统的动态 DNNNNNE培训管道。 与NA- Art- Art- g- g- g- salx 快速显示类似图像- g- 的图像- g- hyal- hexx 的图像- hyal- hyal- syal- syal- syal- 10- sypilental 的图像- syal- sal- sal- sal- sal- sal- syal- lax lax lax lax lax lax lax lax 的图像- lax lax lax sh sh sh sh 显示在不同的图像- syal- sal- 方法, 至 2. ax lax lax labal lax lax lax lax labal lax lax labal lax labal lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax lax la

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
专知会员服务
114+阅读 · 2020年8月22日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
60+阅读 · 2020年3月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
微软开源的深度学习模型转换工具MMdnn
极市平台
6+阅读 · 2018年10月27日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
carla无人驾驶模拟中文项目 carla_simulator_Chinese
CreateAMind
3+阅读 · 2018年1月30日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
TResNet: High Performance GPU-Dedicated Architecture
Arxiv
8+阅读 · 2020年3月30日
VIP会员
相关VIP内容
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
专知会员服务
114+阅读 · 2020年8月22日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
60+阅读 · 2020年3月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
微软开源的深度学习模型转换工具MMdnn
极市平台
6+阅读 · 2018年10月27日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
carla无人驾驶模拟中文项目 carla_simulator_Chinese
CreateAMind
3+阅读 · 2018年1月30日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Top
微信扫码咨询专知VIP会员