Much recent research has been dedicated to improving the efficiency of training and inference for image classification. This effort has commonly focused on explicitly improving theoretical efficiency, often measured as ImageNet validation accuracy per FLOP. These theoretical savings have, however, proven challenging to achieve in practice, particularly on high-performance training accelerators. In this work, we focus on improving the practical efficiency of the state-of-the-art EfficientNet models on a new class of accelerator, the Graphcore IPU. We do this by extending this family of models in the following ways: (i) generalising depthwise convolutions to group convolutions; (ii) adding proxy-normalized activations to match batch normalization performance with batch-independent statistics; (iii) reducing compute by lowering the training resolution and inexpensively fine-tuning at higher resolution. We find that these three methods improve the practical efficiency for both training and inference. Our code will be made available online.


翻译:最近的许多研究都致力于提高培训效率和图像分类的推论效率。这一努力通常侧重于明确提高理论效率,通常以FLOP的图像网络验证精度衡量。然而,事实证明,这些理论节约在实践中难以实现,特别是在高性能培训加速器方面。在这项工作中,我们侧重于提高最新高效网络模型在一个新的加速器类别即Greacore 议会联盟上的实际效率。我们通过以下方式扩大这一模型系列:(一) 将深度变异推广到集团变异;(二) 增加代理调整启动,使批量正常化业绩与批量独立统计相匹配;(三) 通过降低培训分辨率和高分辨率的低成本微调降低计算率。我们发现这三种方法提高了培训和推断的实际效率。我们的代码将在线公布。

0
下载
关闭预览

相关内容

Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
19+阅读 · 2021年4月4日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
41+阅读 · 2020年3月21日
专知会员服务
61+阅读 · 2020年3月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
AI/ML/DNN硬件加速设计怎么入门?
StarryHeavensAbove
10+阅读 · 2018年12月4日
【动态】何恺明团队最新力作:群组归一化(Group Normalization)
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
Top
微信扫码咨询专知VIP会员