大量研究已经涌现出来用于多模态知识图谱补全(MKGC),以预测多模态知识图谱(MKGs)中的缺失链接。然而,用于研究归纳多模态知识图谱补全(IMKGC)的研究相对较少,这些研究涉及训练期间未见过的新兴实体。现有的归纳方法主要关注学习文本实体表示,忽略了视觉模态中的丰富语义信息。此外,它们侧重于从现有知识图谱中聚合结构邻居,而新兴实体的结构邻居通常是有限的。然而,语义邻居与拓扑连接是解耦的,通常暗示了真正的目标实体。在本文中,我们提出了IMKGC任务和一个语义邻居检索增强的IMKGC框架CMR,通过对比将有用的语义邻居拉近,然后通过记忆支持语义邻居检索以增强推理。具体来说,我们首先提出了一种统一的跨模态对比学习,同时捕捉查询实体对在统一表示空间中的文本-视觉和文本-文本相关性。对比学习增加了正查询实体对的相似性,从而使有用的语义邻居的表示更加接近。然后,我们明确记忆知识表示以支持语义邻居检索。在测试时,我们检索最近的语义邻居并将其插入到查询实体相似性分布中,以增强最终预测。大量实验验证了CMR在三个归纳MKGC数据集上的有效性。代码可在https://github.com/OreOZhao/CMR获得。

成为VIP会员查看完整内容
22

相关内容

【ICML2024】社区不变图对比学习
专知会员服务
23+阅读 · 5月4日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
21+阅读 · 2023年10月21日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
38+阅读 · 2021年5月16日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
论文浅尝 | 基于多模态关联数据嵌入的知识库补全
开放知识图谱
12+阅读 · 2018年12月13日
国家自然科学基金
10+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
378+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【ICML2024】社区不变图对比学习
专知会员服务
23+阅读 · 5月4日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
21+阅读 · 2023年10月21日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
38+阅读 · 2021年5月16日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
相关基金
国家自然科学基金
10+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
378+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
微信扫码咨询专知VIP会员