我们提出了一种方法,将冻结的仅文本大型语言模型(LLMs)与预训练的图像编码器和解码器模型融合,通过在它们的嵌入空间之间进行映射。我们的模型展示了一系列多模态功能:图像检索、新颖的图像生成和多模态对话。我们的方法是首个能够根据任意交错的图像和文本输入生成连贯的图像(和文本)输出的方法。为了在图像生成上取得强大的性能,我们提出了一个高效的映射网络,将LLM与现成的文本到图像生成模型相连接。这个映射网络将文本的隐藏表示转换为视觉模型的嵌入空间,使我们能够利用LLM的强大文本表示来进行视觉输出。我们的方法在涉及更长和更复杂语言的任务上超越了基线生成模型。除了新颖的图像生成,我们的模型还能够从预先指定的数据集中检索图像,并在推理时决定是检索还是生成。这是通过一个基于LLM的隐藏表示进行条件化的学习决策模块完成的。与之前的多模态语言模型相比,我们的模型展现了更广泛的功能。它可以处理图像和文本输入,并生成检索到的图像、生成的图像和生成的文本——在测量上下文依赖性的几项文本到图像任务中,超越了非LLM基础的生成模型。

成为VIP会员查看完整内容
31

相关内容

【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
30+阅读 · 2023年4月29日
多模态深度学习
专知会员服务
133+阅读 · 2023年1月15日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
11+阅读 · 2021年7月16日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
【NeurIPS2022】基于最大熵编码的自监督学习
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
147+阅读 · 2023年3月24日
VIP会员
相关VIP内容
【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
30+阅读 · 2023年4月29日
多模态深度学习
专知会员服务
133+阅读 · 2023年1月15日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
11+阅读 · 2021年7月16日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
相关资讯
【NeurIPS2022】基于最大熵编码的自监督学习
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员