由于大规模模型的端到端训练,视觉和语言预训练的成本变得越来越令人望而却步。本文提出BLIP-2,一种通用而有效的预训练策略,从现成的冻结预训练图像编码器和冻结的大型语言模型中引导视觉-语言预训练。BLIP-2通过一个轻量级的查询Transformer弥合了模式差距,该Transformer分两个阶段进行预训练。第一阶段从冻结的图像编码器中引导视觉-语言表示学习。第二阶段从一个冻结的语言模型中引导视觉到语言的生成学习。BLIP-2在各种视觉语言任务上取得了最先进的性能,尽管可训练参数比现有方法少得多。例如,所提出模型在零样本VQAv2上的表现比Flamingo80B高出8.7%,可训练参数减少了54倍。还展示了该模型的零样本图像到文本生成的新兴能力,可以遵循自然语言指令。

https://www.zhuanzhi.ai/paper/07f6ce13e18cd1dc714cf3d3f88d1e56

成为VIP会员查看完整内容
28

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】终身语言预训练与分布式专业化专家
专知会员服务
25+阅读 · 2023年5月26日
【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
33+阅读 · 2023年2月15日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
18+阅读 · 2021年9月13日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
「知识增强预训练语言模型」最新研究综述
专知
17+阅读 · 2022年11月18日
微软T-ULRv6:引领基础模型向多语言“大一统”迈进
微软研究院AI头条
1+阅读 · 2022年11月17日
论文浅尝 | 弱监督下极简的视觉语言预训练模型
开放知识图谱
1+阅读 · 2022年9月26日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月11日
Arxiv
0+阅读 · 2023年6月9日
A Survey of Large Language Models
Arxiv
322+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【ICML2023】终身语言预训练与分布式专业化专家
专知会员服务
25+阅读 · 2023年5月26日
【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
33+阅读 · 2023年2月15日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
18+阅读 · 2021年9月13日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员