低数据环境下的视觉识别需要深度神经网络从有限的训练样本中学习广义表示。最近,基于CLIP的方法显示出有希望的少样本性能,得益于对比性语言-图像预训练。提出问题,是否可以通过级联更多样化的预训练知识来进一步辅助少样本表示学习。本文提出CaFo,一种级联的基础模型,融合了各种预训练范式的各种先验知识,以实现更好的少样本学习。CaFo融合了CLIP的语言对比知识、DINO的视觉对比知识、DALL-E的视觉生成知识和GPT-3的语言生成知识。具体来说,CaFo的工作原理是“提示,生成,然后缓存”。首先,利用GPT-3为具有丰富下游语言语义的提示片段产生文本输入。然后,通过DALL-E生成合成图像,以在不需要任何人工的情况下扩展少样本训练数据。最后,提出一种可学习的缓存模型来自适应地融合CLIP和DINO的预测结果。通过这种合作,CaFo可以充分释放不同预训练方法的潜力,并将它们统一起来,以执行最先进的少样本分类。代码可以在https://github.com/ZrrSkywalker/CaFo上找到。

https://www.zhuanzhi.ai/paper/6522618f8de51b1851243672034c9f7a

成为VIP会员查看完整内容
36

相关内容

CVPR 2023大会将于 6 月 18 日至 22 日在温哥华会议中心举行。CVPR是IEEE Conference on Computer Vision and Pattern Recognition的缩写,即IEEE国际计算机视觉与模式识别会议。该会议是由IEEE举办的计算机视觉和模式识别领域的顶级会议,会议的主要内容是计算机视觉与模式识别技术。 CVPR 2023 共收到 9155 份提交,比去年增加了 12%,创下新纪录,今年接收了 2360 篇论文,接收率为 25.78%。作为对比,去年有 8100 多篇有效投稿,大会接收了 2067 篇,接收率为 25%。
【CVPR2023】基于文本到图像扩散模型的开放词汇全景分割
【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型
【AAAI2023】用单塔Transformer统一视觉语言表示空间
专知会员服务
14+阅读 · 2022年11月27日
【CVPR2022】开放集半监督图像生成
专知会员服务
22+阅读 · 2022年5月3日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
39+阅读 · 2022年4月15日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
32+阅读 · 2022年3月13日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
「高效视觉扩散模型」 最新研究综述
专知
8+阅读 · 2022年10月20日
DeepMind:为什么GPT能为你写诗?
新智元
1+阅读 · 2022年6月3日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
30+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
1+阅读 · 2023年4月27日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
18+阅读 · 2021年6月10日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
11+阅读 · 2018年1月11日
VIP会员
相关VIP内容
【CVPR2023】基于文本到图像扩散模型的开放词汇全景分割
【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型
【AAAI2023】用单塔Transformer统一视觉语言表示空间
专知会员服务
14+阅读 · 2022年11月27日
【CVPR2022】开放集半监督图像生成
专知会员服务
22+阅读 · 2022年5月3日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
39+阅读 · 2022年4月15日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
32+阅读 · 2022年3月13日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
30+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员