Traditional computer vision models are trained to predict a fixed set of predefined categories. Recently, natural language has been shown to be a broader and richer source of supervision that provides finer descriptions to visual concepts than supervised "gold" labels. Previous works, such as CLIP, use InfoNCE loss to train a model to predict the pairing between images and text captions. CLIP, however, is data hungry and requires more than 400M image-text pairs for training. The inefficiency can be partially attributed to the fact that the image-text pairs are noisy. To address this, we propose OTTER (Optimal TransporT distillation for Efficient zero-shot Recognition), which uses online entropic optimal transport to find a soft image-text match as labels for contrastive learning. Based on pretrained image and text encoders, models trained with OTTER achieve strong performance with only 3M image text pairs. Compared with InfoNCE loss, label smoothing, and knowledge distillation, OTTER consistently outperforms these baselines in zero shot evaluation on Google Open Images (19,958 classes) and multi-labeled ImageNet 10K (10032 classes) from Tencent ML-Images. Over 42 evaluations on 7 different dataset/architecture settings x 6 metrics, OTTER outperforms (32) or ties (2) all baselines in 34 of them.


翻译:传统计算机视觉模型经过培训,可以预测一套固定的预定义类别。 最近,自然语言被显示为比受监督的“黄金”标签更广泛、更富的监管来源,为视觉概念提供比受监督的“黄金”标签更精细的描述。 之前的工作,例如 CLIP, 使用InfoNCE 损失来培训模型, 以预测图像和文本标题的配对。 但是, CLIP 数据饥饿, 需要400M多张图像- 文本配对来进行培训。 效率低下的部分原因在于图像- 文本配对是吵闹的。 为了解决这个问题, 我们建议 Ottel (Opimal TransporT 蒸馏为高效零弹识别), 使用在线最佳传输工具查找软图像- 文本匹配作为对比性学习标签 。 根据预先培训的图像和文本编码, 接受Ottle TATER 培训的模型只有3M 文本配对才能取得强的性能。 与InfNCEE损失、标签平滑、知识蒸馏、 Otter 一致地在谷系统 6-x- xxxxxx 328 上的所有图像- mIT- 10- mal- dism- 类中, (19, lax- mass- lax- 10- lax- lax mass- lax 10- la- 10- dism- sl) la- lax lax lax 10- sq- sal- dirviald 10- slas- dlas- slas- slection slas- slex sle) lad-d-d slex slas- slex slex slevel sle) ass slex slex slex slex slex slex slex slass slex slex slections slections sle) 10- dlass sal lad sal lad sal lad- dal- dal lad sal- sal- sal- dald sal- dal- sal- dal lad lax 10- dle) la

0
下载
关闭预览

相关内容

【WSDM2022】基于约束聚类学习离散表示的高效密集检索
专知会员服务
26+阅读 · 2021年11月16日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
94+阅读 · 2019年12月23日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
知识图谱本体结构构建论文合集
专知会员服务
106+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
Top
微信扫码咨询专知VIP会员