利用多模态数据中高质量的联合表示可以显著提升各类基于机器学习的应用性能。近年来,基于多模态信息瓶颈(Multimodal Information Bottleneck, MIB)原理的多模态学习方法,旨在通过正则化机制生成最优的 MIB 表示,从而最大程度保留与任务相关的信息,同时去除冗余信息。 然而,这些方法通常采用人为设定的正则化权重,且忽视了不同模态之间任务相关信息的不平衡问题,限制了其获得最优 MIB 的能力。

为解决上述问题,我们提出了一种新颖的多模态学习框架——最优多模态信息瓶颈(Optimal Multimodal Information Bottleneck, OMIB)。该框架的优化目标通过在理论推导出的界限内设置正则化权重,从而保证最优 MIB 的可达性。OMIB 同时引入了模态自适应正则机制,能够针对不同模态动态调整正则化权重,从而有效应对任务相关信息的不平衡性,确保所有有用信息的保留。

此外,我们为 OMIB 的优化过程建立了坚实的信息论基础,并在变分近似框架下实现该方法,以提升计算效率。最后,我们在合成数据上验证了 OMIB 的理论特性,并在多项下游任务中实证展示了其优于当前主流基准方法的性能表现。

成为VIP会员查看完整内容
11

相关内容

【NeurIPS2024】卷积可微逻辑门网络
专知会员服务
19+阅读 · 2024年11月11日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
27+阅读 · 2022年12月2日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【NeurIPS2024】卷积可微逻辑门网络
专知会员服务
19+阅读 · 2024年11月11日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
27+阅读 · 2022年12月2日
相关资讯
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员