Traditional computer vision models are trained to predict a fixed set of predefined categories. Recently, natural language has been shown to be a broader and richer source of supervision that provides finer descriptions to visual concepts than supervised "gold" labels. Previous works, such as CLIP, use InfoNCE loss to train a model to predict the pairing between images and text captions. CLIP, however, is data hungry and requires more than 400M image-text pairs for training. The inefficiency can be partially attributed to the fact that the image-text pairs are noisy. To address this, we propose OTTER (Optimal TransporT distillation for Efficient zero-shot Recognition), which uses online entropic optimal transport to find a soft image-text match as labels for contrastive learning. Based on pretrained image and text encoders, models trained with OTTER achieve strong performance with only 3M image text pairs. Compared with InfoNCE loss, label smoothing, and knowledge distillation, OTTER consistently outperforms these baselines in zero shot evaluation on Google Open Images (19,958 classes) and multi-labeled ImageNet 10K (10032 classes) from Tencent ML-Images. Over 42 evaluations on 7 different dataset/architecture settings x 6 metrics, OTTER outperforms (32) or ties (2) all baselines in 34 of them.


翻译:传统计算机视觉模型经过培训,可以预测一套固定的预定义类别。 最近,自然语言被显示为比受监督的“黄金”标签更广泛、更富的监管来源,为视觉概念提供比受监督的“黄金”标签更精细的描述。 之前的工作,例如 CLIP, 使用InfoNCE 损失来培训模型, 以预测图像和文本标题的配对。 但是, CLIP 数据饥饿, 需要400M多张图像- 文本配对来进行培训。 效率低下的部分原因在于图像- 文本配对是吵闹的。 为了解决这个问题, 我们建议 Ottel (Opimal TransporT 蒸馏为高效零弹识别), 使用在线最佳传输工具查找软图像- 文本匹配作为对比性学习标签 。 根据预先培训的图像和文本编码, 接受Ottle TATER 培训的模型只有3M 文本配对才能取得强的性能。 与InfNCEE损失、标签平滑、知识蒸馏、 Otter 一致地在谷系统 6-x- xxxxxx 328 上的所有图像- mIT- 10- mal- dism- 类中, (19, lax- mass- lax- 10- lax- lax mass- lax 10- la- 10- dism- sl) la- lax lax lax 10- sq- sal- dirviald 10- slas- dlas- slas- slection slas- slex sle) lad-d-d slex slas- slex slex slevel sle) ass slex slex slex slex slex slex slex slass slex slex slections slections sle) 10- dlass sal lad sal lad sal lad- dal- dal lad sal- sal- sal- dald sal- dal- sal- dal lad lax 10- dle) la

0
下载
关闭预览

相关内容

【WSDM2022】基于约束聚类学习离散表示的高效密集检索
专知会员服务
26+阅读 · 2021年11月16日
【Google-Marco Cuturi】最优传输,339页ppt,Optimal Transport
专知会员服务
47+阅读 · 2021年10月26日
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员