Recent studies on deep convolutional neural networks present a simple paradigm of architecture design, i.e., models with more MACs typically achieve better accuracy, such as EfficientNet and RegNet. These works try to enlarge all the stages in the model with one unified rule by sampling and statistical methods. However, we observe that some network architectures have similar MACs and accuracies, but their allocations on computations for different stages are quite different. In this paper, we propose to enlarge the capacity of CNN models by improving their width, depth and resolution on stage level. Under the assumption that the top-performing smaller CNNs are a proper subcomponent of the top-performing larger CNNs, we propose an greedy network enlarging method based on the reallocation of computations. With step-by-step modifying the computations on different stages, the enlarged network will be equipped with optimal allocation and utilization of MACs. On EfficientNet, our method consistently outperforms the performance of the original scaling method. In particular, with application of our method on GhostNet, we achieve state-of-the-art 80.9% and 84.3% ImageNet top-1 accuracies under the setting of 600M and 4.4B MACs, respectively.


翻译:最近对深层进化神经网络的研究提出了建筑设计的一个简单范例,即拥有更多MAC的模型通常会达到更高的准确度,例如高效网络和RegNet。这些工程试图通过抽样和统计方法扩大模型的所有阶段,通过统一规则通过抽样和统计方法扩大模型的所有阶段。然而,我们注意到,有些网络结构具有类似的MAC和理解,但它们在不同阶段的计算分配情况却大不相同。在本文件中,我们提议通过改进CNN模型的广度、深度和在阶段一级的分辨率来扩大其能力。根据最优秀的小型CNN模型是最优秀的CNN系统的适当子组成部分这一假设,我们提议以计算再分配为基础扩大贪婪的网络方法。随着对不同阶段的计算进行逐步修改,扩大的网络将配备最优化的MACs分配和利用。关于高效网络,我们的方法始终比最初的缩放方法的绩效高。特别是在GhindNet上应用我们的方法,我们实现了第80.9%和84.3%的图像网络在4.4%和4.4%的图像网络上分别设定了第4.4A和4.4%的状态。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2017年9月12日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Arxiv
0+阅读 · 2021年10月2日
Arxiv
27+阅读 · 2020年6月19日
SepNE: Bringing Separability to Network Embedding
Arxiv
3+阅读 · 2019年2月26日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
Arxiv
9+阅读 · 2018年5月24日
VIP会员
相关VIP内容
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2017年9月12日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Top
微信扫码咨询专知VIP会员