Leveraging prior knowledge on intraclass variance due to transformations is a powerful method to improve the sample complexity of deep neural networks. This makes them applicable to practically important use-cases where training data is scarce. Rather than being learned, this knowledge can be embedded by enforcing invariance to those transformations. Invariance can be imposed using group-equivariant convolutions followed by a pooling operation. For rotation-invariance, previous work investigated replacing the spatial pooling operation with invariant integration which explicitly constructs invariant representations. Invariant integration uses monomials which are selected using an iterative approach requiring expensive pre-training. We propose a novel monomial selection algorithm based on pruning methods to allow an application to more complex problems. Additionally, we replace monomials with different functions such as weighted sums, multi-layer perceptrons and self-attention, thereby streamlining the training of invariant-integration-based architectures. We demonstrate the improved sample complexity on the Rotated-MNIST, SVHN and CIFAR-10 datasets where rotation-invariant-integration-based Wide-ResNet architectures using monomials and weighted sums outperform the respective baselines in the limited sample regime. We achieve state-of-the-art results using full data on Rotated-MNIST and SVHN where rotation is a main source of intraclass variation. On STL-10 we outperform a standard and a rotation-equivariant convolutional neural network using pooling.
翻译:由于变换而导致的本级内部差异知识的利用是改进深神经网络样本复杂性的有力方法。 这使得这些知识适用于培训数据稀少的、 实际重要的使用案例。 这种知识不是通过学习,而是通过强制实施这些变换而嵌入。 可以使用群体- 等异变共变, 并随后采取集合行动来强制推行这种知识。 关于轮换- 差异, 以往调查用不变化的整合方式取代空间集合操作, 以明确构建不变化的表达式来取代空间组合操作。 不变化整合使用单项, 选择时使用需要昂贵培训前的迭接方法。 我们提议基于裁剪接方法的新型单项选择算法, 以便能够应用更复杂的问题。 此外, 我们替换单项功能, 使用加权总和、多层透视和自留功能, 简化基于差异的内流- MNISTIS、 SVHN 和CIFAR- 10 数据集的抽样复杂性。 我们展示了在旋转- 内置- 内置- 内流流- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 流- 基- 流- 流- 流- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 基- 流- 流- 基- 基- 流- 基- 流- 流- 流- 基- 基- 基- 流- 流- 流- 流- 流- 基- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流- 流-