Convolution operator is the core of convolutional neural networks (CNNs) and occupies the most computation cost. To make CNNs more efficient, many methods have been proposed to either design lightweight networks or compress models. Although some efficient network structures have been proposed, such as MobileNet or ShuffleNet, we find that there still exists redundant information between convolution kernels. To address this issue, we propose a novel dynamic convolution method to adaptively generate convolution kernels based on image contents. To demonstrate the effectiveness, we apply dynamic convolution on multiple state-of-the-art CNNs. On one hand, we can reduce the computation cost remarkably while maintaining the performance. For ShuffleNetV2/MobileNetV2/ResNet18/ResNet50, DyNet can reduce 37.0/54.7/67.2/71.3% FLOPs without loss of accuracy. On the other hand, the performance can be largely boosted if the computation cost is maintained. Based on the architecture MobileNetV3-Small/Large, DyNet achieves 70.3/77.1% Top-1 accuracy on ImageNet with an improvement of 2.9/1.9%. To verify the scalability, we also apply DyNet on segmentation task, the results show that DyNet can reduce 69.3% FLOPs while maintaining Mean IoU on segmentation task.
翻译:革命中枢是革命神经网络的核心, 并占据了最高的计算成本。 为了使CNN更有效率, 已经提出了许多方法来设计轻量网络或压缩模型。 虽然已经提出了一些高效网络结构, 如移动网络或ShuffleNet, 但我们发现, 共进内核之间仍然存在着多余的信息。 为了解决这个问题, 我们提出一种新的动态革命方法, 以根据图像内容进行适应性生成共进内核。 为了展示效果, 我们用动态的共进法对多个最先进的CNN进行动态革命。 一方面, 我们可以在保持性能的同时大幅降低计算成本。 对于ShuffleNetV2/ MobileNet2/ResNet18/ResNet50, DyNet可以减少37. 0/547/ 67.2/71. 3% FLOPs, 而不会失去准确性。 另一方面, 如果计算成本得以维持, 性能将大大提高。 根据结构 MoveNet3- Small/Le, DyNet 实现70.3/77.1 的计算成本。 在图像网络上, D-1 1% 的精确性部分上, 校验 DIL 任务, 。 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校, 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校