许多推荐模型已经被提出,以研究如何有效地将多模态内容信息融入传统的协同过滤框架中。使用多模态信息有望提供更全面的信息,从而带来更优异的性能。然而,整合多种模态通常会遇到模态不平衡问题:由于不同模态中的信息不平衡,在所有模态上优化相同的目标会导致弱模态的优化不足问题,其表现为收敛速度较慢或性能较低。更糟糕的是,我们发现,在多模态推荐模型中,所有模态都面临着优化不足的问题。为了解决这些问题,我们提出了一种反事实知识蒸馏方法,可以解决不平衡问题并充分利用所有模态。通过模态特定的知识蒸馏,该方法可以引导多模态模型从单模态教师模型中学习模态特定的知识。我们还设计了一种新的通用与特定蒸馏损失,指导多模态学生模型从教师模型中学习更广泛和更深入的知识。此外,为了在训练过程中自适应地重新校准多模态模型对弱模态的关注度,我们使用反事实推断技术估计每个模态对训练目标的因果效应,通过这些技术我们可以确定弱模态,量化不平衡程度并相应地重新加权蒸馏损失。我们的方法可以作为后融合和早融合骨干网络的即插即用模块。我们在六种骨干网络上进行了广泛的实验,结果表明我们提出的方法可以大幅提升性能。源码将发布在 \url{https://github.com/CRIPAC-DIG/Balanced-Multimodal-Rec}。

成为VIP会员查看完整内容
11

相关内容

ACM 国际多媒体大会(英文名称:ACM Multimedia,简称:ACM MM)是多媒体领域的顶级国际会议,每年举办一次。
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
21+阅读 · 1月30日
【AAAI2024】面向序列推荐的插件扩散模型
专知会员服务
25+阅读 · 1月9日
【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
专知会员服务
13+阅读 · 2021年10月13日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
15+阅读 · 2021年8月10日
专知会员服务
29+阅读 · 2021年5月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
20+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Exploring Visual Relationship for Image Captioning
Arxiv
14+阅读 · 2018年9月19日
VIP会员
相关VIP内容
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
21+阅读 · 1月30日
【AAAI2024】面向序列推荐的插件扩散模型
专知会员服务
25+阅读 · 1月9日
【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
专知会员服务
13+阅读 · 2021年10月13日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
15+阅读 · 2021年8月10日
专知会员服务
29+阅读 · 2021年5月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
20+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Exploring Visual Relationship for Image Captioning
Arxiv
14+阅读 · 2018年9月19日
微信扫码咨询专知VIP会员