Introducing sparsity in a neural network has been an efficient way to reduce its complexity while keeping its performance almost intact. Most of the time, sparsity is introduced using a three-stage pipeline: 1) train the model to convergence, 2) prune the model according to some criterion, 3) fine-tune the pruned model to recover performance. The last two steps are often performed iteratively, leading to reasonable results but also to a time-consuming and complex process. In our work, we propose to get rid of the first step of the pipeline and to combine the two other steps in a single pruning-training cycle, allowing the model to jointly learn for the optimal weights while being pruned. We do this by introducing a novel pruning schedule, named One-Cycle Pruning, which starts pruning from the beginning of the training, and until its very end. Adopting such a schedule not only leads to better performing pruned models but also drastically reduces the training budget required to prune a model. Experiments are conducted on a variety of architectures (VGG-16 and ResNet-18) and datasets (CIFAR-10, CIFAR-100 and Caltech-101), and for relatively high sparsity values (80%, 90%, 95% of weights removed). Our results show that One-Cycle Pruning consistently outperforms commonly used pruning schedules such as One-Shot Pruning, Iterative Pruning and Automated Gradual Pruning, on a fixed training budget.
翻译:在神经网络中引入超度是降低其复杂性并保持其性能几乎完好的一个有效方法。 大部分时间, 使用三阶段管道引入超度:1) 将模型引向趋同, 2) 根据某些标准将模型推入模型, 3) 微调调整经调整的模型以恢复性能。 后两个步骤往往反复执行, 导致合理结果, 但也是一个耗时和复杂的过程。 在我们的工作中, 我们提议清除管道的第一步, 并将另外两个步骤合并到一个运行中的培训周期中, 使模型在被切割时能够共同学习最佳重量。 我们这样做的方法是推出一个新的裁剪切时间表, 名为“ 一刀普鲁”, 开始从培训开始, 直至其结束。 采用这样的时间表不仅可以更好地运行经调整的模型, 而且还会大幅削减一个模型所需的培训预算预算。 实验是在各种建筑( VGG-16 和 ResNet-18 ) 中进行, 使模型能够联合学习最佳重量。 我们这样做的方法是推出新的裁剪辑计划,, 一个名为“ 一刀” 10” 常规, 常规, 10,, 以显示我们 10 常规 和 10 10 常规 的 10 常规 的, 的, 10 10 的 的 和 的 的 的 10 常规 10 以 以 以 10 以 以 以 以 以 以 以 以 的 以 以 10 的 以 以 以 的 的 的 以 的 的 持续 的 的 的 的 的 的 的 的 10 10 10 的 10 以 以 的 的 的 以 以 的 的 以 以 的 的 的 以 以 以 的 以 的 以 以 以 的 的 以 的 以 10 以 以 以 的 以 以 以 以 以 以 以 以 的 的 的 的 的 的 以 以 以 以 以 以 以 以 以 的 的 10 10 的 10