多模态查询的知识检索在支持知识密集型多模态应用中扮演着关键角色。然而,现有方法在有效性和训练效率方面面临挑战,特别是在训练和集成多个检索器以处理多模态查询时。在本文中,我们提出了一个创新的端到端生成式框架,用于多模态知识检索。我们的框架利用了大型语言模型(LLMs)即使在有限数据训练的情况下,也可以有效地作为虚拟知识库的事实。我们通过两步过程检索知识:1)生成与查询相关的知识线索;2)使用知识线索搜索数据库以获取相关文档。特别是,我们首先引入了一个对象感知的前缀调优技术来指导多粒度的视觉学习。然后,我们将多粒度的视觉特征对齐到LLM的文本特征空间中,利用LLM捕获跨模态交互。随后,我们构建了具有统一格式的指导数据进行模型训练。最后,我们提出了知识引导的生成策略,以在解码步骤中施加先前约束,从而促进独特知识线索的生成。通过在三个基准测试上进行的实验,我们展示了与强大基线相比,在所有评估指标上的显著提升,范围从3.0%到14.6%。

成为VIP会员查看完整内容
52

相关内容

大型语言模型的模型压缩与高效推理:综述
专知会员服务
79+阅读 · 2月17日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
22+阅读 · 2022年10月8日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【NeurIPS 2021】实例依赖的偏标记学习
专知会员服务
10+阅读 · 2021年11月28日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
15+阅读 · 2021年7月7日
专知会员服务
25+阅读 · 2021年5月23日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【WWW2021】基于图层次相关性匹配信号的Ad-hoc 检索
专知会员服务
13+阅读 · 2021年2月25日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
基于模型的强化学习综述
专知
33+阅读 · 2022年7月13日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
146+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
大型语言模型的模型压缩与高效推理:综述
专知会员服务
79+阅读 · 2月17日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
22+阅读 · 2022年10月8日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【NeurIPS 2021】实例依赖的偏标记学习
专知会员服务
10+阅读 · 2021年11月28日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
15+阅读 · 2021年7月7日
专知会员服务
25+阅读 · 2021年5月23日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【WWW2021】基于图层次相关性匹配信号的Ad-hoc 检索
专知会员服务
13+阅读 · 2021年2月25日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
相关资讯
基于模型的强化学习综述
专知
33+阅读 · 2022年7月13日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员