**以往成功的缺失模态补全方法依赖于精心设计的融合技术和在完整数据上的大量预训练,这可能限制其在领域外(OOD)场景中的泛化能力。**在本研究中,我们提出了一个新的挑战:我们能否开发出一种既高效又能应对OOD泛化的缺失模态补全模型?为了解决这一问题,我们提出了一种无需训练的缺失模态补全框架,该框架利用大型多模态模型(LMM)。我们的方法被称为“知识桥接器”(Knowledge Bridger),具有模态不可知性,并结合了缺失模态的生成与排序。通过定义领域特定的先验知识,我们的方法能够自动从现有模态中提取结构化信息,并构建知识图谱。这些提取的图谱通过LMM连接缺失模态的生成与排序模块,从而实现高质量的缺失模态插补。在一般领域和医学领域的实验结果表明,我们的方法始终优于其他竞争方法,尤其在OOD泛化方面表现突出。此外,我们基于知识的生成与排序技术在生成和排序方面优于直接使用LMM的变体,为其他领域的应用提供了有价值的见解。

成为VIP会员查看完整内容
0

相关内容

【NeurIPS2024】在复杂视觉推理场景中学习迭代和并行推理
专知会员服务
17+阅读 · 2024年11月30日
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
20+阅读 · 2024年3月30日
自监督预训练图基础模型综述:基于知识的视角
专知会员服务
40+阅读 · 2024年3月28日
【ICML2023】面向决策Transformer的未来条件无监督预训练
专知会员服务
44+阅读 · 2023年5月30日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
【IJCAI2021】复杂知识库问答研究: 方法、挑战与对策
专知会员服务
55+阅读 · 2021年5月27日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
24+阅读 · 2019年11月4日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ELMo的朋友圈:预训练语言模型真的一枝独秀吗?
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
434+阅读 · 2023年3月31日
Arxiv
73+阅读 · 2023年3月26日
Arxiv
157+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2024】在复杂视觉推理场景中学习迭代和并行推理
专知会员服务
17+阅读 · 2024年11月30日
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
20+阅读 · 2024年3月30日
自监督预训练图基础模型综述:基于知识的视角
专知会员服务
40+阅读 · 2024年3月28日
【ICML2023】面向决策Transformer的未来条件无监督预训练
专知会员服务
44+阅读 · 2023年5月30日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
【IJCAI2021】复杂知识库问答研究: 方法、挑战与对策
专知会员服务
55+阅读 · 2021年5月27日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
24+阅读 · 2019年11月4日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员