Neural Networks (NN), although successfully applied to several Artificial Intelligence tasks, are often unnecessarily over-parametrized. In fog/edge computing, this might make their training prohibitive on resource-constrained devices, contrasting with the current trend of decentralising intelligence from remote data-centres to local constrained devices. Therefore, we investigate the problem of training effective NN models on constrained devices having a fixed, potentially small, memory budget. We target techniques that are both resource-efficient and performance effective while enabling significant network compression. Our technique, called Dynamic Hard Pruning (DynHP), incrementally prunes the network during training, identifying neurons that marginally contribute to the model accuracy. DynHP enables a tunable size reduction of the final neural network and reduces the NN memory occupancy during training. Freed memory is reused by a \emph{dynamic batch sizing} approach to counterbalance the accuracy degradation caused by the hard pruning strategy, improving its convergence and effectiveness. We assess the performance of DynHP through reproducible experiments on two public datasets, comparing them against reference competitors. Results show that DynHP compresses a NN up to $10$ times without significant performance drops (up to $5\%$ relative error w.r.t. competitors), reducing up to $80\%$ the training memory occupancy.


翻译:神经网络(NN)虽然成功地应用于了几项人工智能任务,但往往被不必要地过度平衡。在迷雾/边缘计算中,这可能使他们的培训对资源限制装置造成无法使用的培训,这与目前将情报从远程数据中心分散到当地受限制装置的趋势形成对照。因此,我们调查了对限制装置的有效NN模型的培训问题,这些模型具有固定的、潜在的小记忆预算。我们针对的是资源效率和性能都有效,同时能够促成重要的网络压缩的技术。我们的技术,称为动态硬普鲁宁(DynHP),在培训期间逐步利用网络,查明对模型准确性稍有贡献的神经元。DynHP使得最终神经元网络的缩略缩规模减少,并在培训期间减少NNN的记忆占用量。自由记忆被一种固定的、潜在的小批量的存储量的方法再利用,以抵消硬运行战略造成的准确性退化,同时提高它的趋同性和有效性。我们评估DynHP的绩效,方法是在两个公共数据集上进行可复制的实验,将其与参考竞争者进行比较。结果显示,将它们比起来它们比起来比起来,最后神经网络的神经值为10美元。结果显示D_RPAS的成绩比值为10美元。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
7+阅读 · 2017年7月11日
Arxiv
0+阅读 · 2021年6月24日
Arxiv
8+阅读 · 2021年2月19日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
7+阅读 · 2017年7月11日
Top
微信扫码咨询专知VIP会员