Deploying deep neural networks on mobile devices is a challenging task. Current model compression methods such as matrix decomposition effectively reduce the deployed model size, but still cannot satisfy real-time processing requirement. This paper first discovers that the major obstacle is the excessive execution time of non-tensor layers such as pooling and normalization without tensor-like trainable parameters. This motivates us to design a novel acceleration framework: DeepRebirth through "slimming" existing consecutive and parallel non-tensor and tensor layers. The layer slimming is executed at different substructures: (a) streamline slimming by merging the consecutive non-tensor and tensor layer vertically; (b) branch slimming by merging non-tensor and tensor branches horizontally. The proposed optimization operations significantly accelerate the model execution and also greatly reduce the run-time memory cost since the slimmed model architecture contains less hidden layers. To maximally avoid accuracy loss, the parameters in new generated layers are learned with layer-wise fine-tuning based on both theoretical analysis and empirical verification. As observed in the experiment, DeepRebirth achieves more than 3x speed-up and 2.5x run-time memory saving on GoogLeNet with only 0.4% drop of top-5 accuracy on ImageNet. Furthermore, by combining with other model compression techniques, DeepRebirth offers an average of 65ms inference time on the CPU of Samsung Galaxy S6 with 86.5% top-5 accuracy, 14% faster than SqueezeNet which only has a top-5 accuracy of 80.5%.
翻译:在移动设备上部署深层神经网络是一项具有挑战性的任务。 当前模型压缩方法, 如矩阵分解, 有效地减少了部署的模型尺寸, 但仍然无法满足实时处理要求 。 本文首先发现主要障碍是非太层的执行时间过长, 如集成和常规化等非太层的执行时间过长, 不需要有高压式训练参数。 这促使我们设计一个新的加速框架 : 通过“ 攀升”, 通过现有连续和平行非惯性及高压层来进行深层再生。 层稀释法在不同子结构中执行:(a) 通过合并连续的非加速度和高压层来精简缩缩缩缩缩式。 (b) 通过横向合并非电流和高压分支来精简分支。 (b) 拟议的优化操作大大加快了模型执行, 并大大降低了运行时间存储成本, 因为薄度模型结构包含较少的层层。 为避免准确性损失, 新生成层的参数仅根据理论分析和实验性核查进行层学微调 。 (a) 在实验中看到, 深再生 5- 5 高级网络 将S 图像的图像的升级比 2.5 的 的 的 的升级 将S hold 的 将 的 的 的 的 25 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 将 将 的 的 的 将 的 的 的 的 的 的 的 的 和 的 的 25 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 将 将 将 将 将 将 将 将 的 将 将 将 将 将 将 将 的 的 将 将 将 的 的 的 的 将 将 将 将 将 将 将 的 的 的 的 的 的 以 的 以 将 将 的 的 将 将 将 将 将 将 将