Recognizing emotions from text in multimodal architectures has yielded promising results, surpassing video and audio modalities under certain circumstances. However, the method by which multimodal data is collected can be significant for recognizing emotional features in language. In this paper, we address the influence data collection methodology has on two multimodal emotion recognition datasets, the IEMOCAP dataset and the OMG-Emotion Behavior dataset, by analyzing textual dataset compositions and emotion recognition accuracy. Experiments with the full IEMOCAP dataset indicate that the composition negatively influences generalization performance when compared to the OMG-Emotion Behavior dataset. We conclude by discussing the impact this may have on HRI experiments.


翻译:由于认识到多式联运结构中文本的情绪,在某些情况下已经取得了令人乐观的结果,超过了视频和音频模式,然而,收集多式联运数据的方法对于识别语言中的情感特征意义重大,在本文件中,我们讨论了数据收集方法对两个多式情感识别数据集(IEMOCAP数据集和OMG-Emove Behavior数据集)的影响,通过分析文本数据集构成和情感识别准确性,对两套多式情感识别数据集(IEMOCAP数据集)和OMG-Emotion Behavior数据集(OMC-Emotion Behavior数据集)进行了分析,结果显示,与OMG-Emotion Bevior数据集相比,该数据集的构成对一般化绩效产生了负面影响,我们通过讨论该数据集可能对HRI实验产生的影响而得出结论。

0
下载
关闭预览

相关内容

【EMNLP2020最佳论文】无声语音的数字化发声
专知会员服务
11+阅读 · 2020年11月20日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
直播预告 | 9月19日 ICCV 2019 中国预会议
AI科技评论
3+阅读 · 2019年9月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年4月29日
Arxiv
8+阅读 · 2020年10月12日
VIP会员
Top
微信扫码咨询专知VIP会员