This paper presents a language-powered paradigm for ordinal regression. Existing methods usually treat each rank as a category and employ a set of weights to learn these concepts. These methods are easy to overfit and usually attain unsatisfactory performance as the learned concepts are mainly derived from the training set. Recent large pre-trained vision-language models like CLIP have shown impressive performance on various visual tasks. In this paper, we propose to learn the rank concepts from the rich semantic CLIP latent space. Specifically, we reformulate this task as an image-language matching problem with a contrastive objective, which regards labels as text and obtains a language prototype from a text encoder for each rank. While prompt engineering for CLIP is extremely time-consuming, we propose OrdinalCLIP, a differentiable prompting method for adapting CLIP for ordinal regression. OrdinalCLIP consists of learnable context tokens and learnable rank embeddings; The learnable rank embeddings are constructed by explicitly modeling numerical continuity, resulting in well-ordered, compact language prototypes in the CLIP space. Once learned, we can only save the language prototypes and discard the huge language model, resulting in zero additional computational overhead compared with the linear head counterpart. Experimental results show that our paradigm achieves competitive performance in general ordinal regression tasks, and gains improvements in few-shot and distribution shift settings for age estimation.
翻译:本文展示了一种以语言为基础的折度回归模式 。 现有方法通常将每个排名作为一个类别对待, 并使用一组重量来学习这些概念。 这些方法很容易过度适应, 通常达到不令人满意的业绩, 因为学习的概念主要来自培训组。 最近大型的、 事先培训的视觉语言模型, 如 CLIP 等大型先先培训的视觉语言模型在各种视觉任务上表现了令人印象性表现。 在本文中, 我们建议从丰富的语义化的 CLIP 隐藏空间学习等级概念。 具体地说, 我们提议从丰富的语义色彩丰富的 CLIP 中学习丰富的语义符号和可学习的级级嵌入空间学习等级概念。 具体地, 我们重新将这项任务改成图像语言匹配的设置, 对比目标将标签视为文本, 从每级的文本编码编码中获取语言原原语言原语言原型。 虽然CLIP 快速工程工程工程工程的快速工程非常耗时费, 我们提议OrdinalCLLLIP, 一种不同的调整、 可调整后, 我们只能通过学习学习学习环境平面语言的原型,, 也只能在CLILILIP 上, 上,,,,, 也只能,,,,, 将 将 将, 将, 将, 将, 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校, 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校, 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校