多模态情感分析(MSA)领域最近出现了一个新兴方向,旨在解决数据不完整性问题。鉴于语言模态通常包含丰富的情感信息,我们将其视为主导模态,并提出了一种创新的以语言为主的抗噪学习网络(LNLN),以实现鲁棒的多模态情感分析。所提出的LNLN包含主导模态校正(DMC)模块和基于主导模态的多模态学习(DMML)模块,通过确保主导模态表示的质量,增强模型在各种噪声场景下的鲁棒性。除了方法设计之外,我们还在随机数据缺失场景下进行了全面实验,利用多个流行数据集(如MOSI、MOSEI 和 SIMS)中的多样且有意义的设置,提供了比现有文献中评估更具一致性、透明性和公平性的测试。实验证明,LNLN在这些具有挑战性且广泛的评估指标上始终优于现有基准,展示了其卓越的性能。我们的代码将发布在:https://github.com/Haoyu-ha/LNLN。

成为VIP会员查看完整内容
14

相关内容

【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
26+阅读 · 7月2日
【WWW2024】重新思考大规模图学习中的节点式传播
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
33+阅读 · 2023年10月17日
【AAAI2023】面向领域自适应语义分割的几何感知网络
专知会员服务
19+阅读 · 2022年12月7日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
35+阅读 · 2022年10月4日
专知会员服务
33+阅读 · 2021年9月18日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
19+阅读 · 2019年10月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
385+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
26+阅读 · 7月2日
【WWW2024】重新思考大规模图学习中的节点式传播
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
33+阅读 · 2023年10月17日
【AAAI2023】面向领域自适应语义分割的几何感知网络
专知会员服务
19+阅读 · 2022年12月7日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
35+阅读 · 2022年10月4日
专知会员服务
33+阅读 · 2021年9月18日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员