Pruning is one of the major methods to compress deep neural networks. In this paper, we propose an Ising energy model within an optimization framework for pruning convolutional kernels and hidden units. This model is designed to reduce redundancy between weight kernels and detect inactive kernels/hidden units. Our experiments using ResNets, AlexNet, and SqueezeNet on CIFAR-10 and CIFAR-100 datasets show that the proposed method on average can achieve a pruning rate of more than $50\%$ of the trainable parameters with approximately $<10\%$ and $<5\%$ drop of Top-1 and Top-5 classification accuracy, respectively.
翻译:普鲁宁是压缩深神经网络的主要方法之一。 在本文中, 我们提议了一个Ising能源模型, 以优化为框架, 用于处理进化内核和隐藏单元。 这个模型旨在减少重量内核的冗余, 检测不活动内核/隐藏单元。 我们在CIFAR- 10 和CIFAR- 100 数据集上使用ResNets、 AlexNet 和 SquezeNet 的实验显示, 拟议的方法平均可以达到可培训参数的50美元以上, 其最高1 和最高5 分类精确度分别约为 < 10 美元 和 < 5 美元 。