Multimodal learning is an emerging yet challenging research area. In this paper, we deal with multimodal sarcasm and humor detection from conversational videos and image-text pairs. Being a fleeting action, which is reflected across the modalities, sarcasm detection is challenging since large datasets are not available for this task in the literature. Therefore, we primarily focus on resource-constrained training, where the number of training samples is limited. To this end, we propose a novel multimodal learning system, MuLOT (Multimodal Learning using Optimal Transport), which utilizes self-attention to exploit intra-modal correspondence and optimal transport for cross-modal correspondence. Finally, the modalities are combined with multimodal attention fusion to capture the inter-dependencies across modalities. We test our approach for multimodal sarcasm and humor detection on three benchmark datasets - MUStARD (video, audio, text), UR-FUNNY (video, audio, text), MST (image, text) and obtain 2.1%, 1.54%, and 2.34% accuracy improvements over state-of-the-art.


翻译:多式学习是一个新兴但具有挑战性的研究领域。 在本文中,我们处理的是从谈话视频和图像-文本对面的多式讽刺和幽默探测。 作为一个瞬息万变的行动,在各种模式中都反映出来,讽刺探测具有挑战性,因为文献中没有关于这项任务的大型数据集。因此,我们主要侧重于资源限制的培训,培训样本数量有限。为此,我们提议建立一个新型的多式学习系统,即Mulot(使用最佳交通的 Multimodal Learning)(Multimodal Learning (Multimodal Learning)(MULOT)(视频、音频、文字)、MST(图像、文字),并获得2.1%、1.54%和2.34%的准确性,以掌握各种模式的相互依存性。我们测试我们利用三种基准数据集----MUStard(视频、音频、文字)、UR-FUNNY(视频、音频、文字)、MST(图像、文字)和获得2.1%、1.54%的改进。

0
下载
关闭预览

相关内容

【Google-Marco Cuturi】最优传输,339页ppt,Optimal Transport
专知会员服务
47+阅读 · 2021年10月26日
区块链白皮书(2020年),60页pdf
专知会员服务
91+阅读 · 2021年1月5日
机器学习模型安全与隐私研究综述
专知会员服务
108+阅读 · 2020年11月12日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
已删除
将门创投
3+阅读 · 2019年4月19日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年4月19日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员