We introduce a regularization loss based on kernel mean embeddings with rotation-invariant kernels on the hypersphere (also known as dot-product kernels) for self-supervised learning of image representations. Besides being fully competitive with the state of the art, our method significantly reduces time and memory complexity for self-supervised training, making it implementable for very large embedding dimensions on existing devices and more easily adjustable than previous methods to settings with limited resources. Our work follows the major paradigm where the model learns to be invariant to some predefined image transformations (cropping, blurring, color jittering, etc.), while avoiding a degenerate solution by regularizing the embedding distribution. Our particular contribution is to propose a loss family promoting the embedding distribution to be close to the uniform distribution on the hypersphere, with respect to the maximum mean discrepancy pseudometric. We demonstrate that this family encompasses several regularizers of former methods, including uniformity-based and information-maximization methods, which are variants of our flexible regularization loss with different kernels. Beyond its practical consequences for state-of-the-art self-supervised learning with limited resources, the proposed generic regularization approach opens perspectives to leverage more widely the literature on kernel methods in order to improve self-supervised learning methods.
翻译:我们引入了一种基于内核内嵌的正规化损失, 其依据是内核内嵌, 以旋转和变异的内核嵌入超视镜( 也称为点产品内核 ), 用于自我监督的图像显示学习。 我们的方法除了与艺术状态完全竞争之外, 还大大降低了自我监督培训的时间和记忆复杂性, 使得它可以适用于现有装置的大规模嵌入维度, 并且比以前的方法更容易调整到资源有限的环境下。 我们的工作遵循了一种主要模式, 即模型学会对一些预设的图像转换( ropping、 模糊、 彩色振动等) 进行变异, 同时通过嵌入分布的正规化来避免一种堕落性解决方案。 我们的具体贡献是提出一个损失家庭, 推动嵌入式分布接近超视镜上的统一分布, 在最大平均值差异的伪度方面, 使得该家庭可以实施与以往方法的若干规范, 包括基于统一和信息最大化的调整方法, 这是我们灵活正规化损失的变式, 与不同的内核为不同的内核,, 超越了常规的自我升级的学习方法, 。 超越了常规的自我升级的学习方法,, 超越了常规化方法,, 向了常规的自我升级的学习方法,,, 的自我升级的自我升级的学习方法,,, 以 以 以 进入了常规化方法 的常规化方法,, 以 以 的 的 的 向 向 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的