The progress in EEG-based emotion recognition has received widespread attention from the fields of human-machine interactions and cognitive science in recent years. However,the scarcity of high granularity and dense artificial labels contributes to the bottleneck of emotion recognition with high real-time and granularity. Neuroscience studies have discovered exploitable stimuli labels. It reveals that EEG samples recorded when subjects were triggered by the same stimuli share the same stimuli label. This paper proposed a Self-supervised Group Meiosis Contrastive Learning (SGMC) framework to exploit such stimuli labels for emotion recognition. The SGMC adopts a genetic inspired data augmentation method Meiosis. It achieves augmenting a group of samples sharing the same stimuli label to generate two augmented groups by pairing, cross exchanging, and separating. A group-projector-based model is adopted. The model achieves extracting a group-level representation by extracting individual representations from a group and aggregating them into a group-level representation. Contrastive learning is employed to maximize the similarity of group-level representations of augmented groups sharing the same stimuli label. The SGMC achieved the state-of-the-art results on the publicly available DEAP dataset with an accuracy of 94.72% and 95.68% in valence and arousal dimensions. Especially the SGMC shows more excellent performance on limited labeled sample learning. In addition, we verified the rationality of the framework design by control experiment and ablation study, and investigated the cause of the formation of good performance by feature visualization, and hyper parametric analysis. The code is provided publicly online


翻译:近些年来,基于 EEG 的情感感化认识方面的进展在人体机器互动和认知科学领域得到了广泛关注。然而,高颗粒和密集人工标签的缺乏导致情绪认知的瓶颈,高实时和高颗粒。神经科学研究发现了可开发的刺激标签。它揭示了同一刺激因素引发主题时所记录的 EEG 样本具有相同的刺激标签。本文提议了一个自我监督的集团模拟对比学习(SGMC)框架,以利用这种刺激标签进行情感识别。SGMC采用了一种遗传激励的数据增强方法。它增加了一组共享同一刺激标签的样本,通过配对、交叉交换和分离产生两个扩大的群。采用了一个基于群体预测的模型。模型通过从一个群体中提取个人陈述并将其汇总成一个群体层面的样本,将它们整合成一个团体层面的样本。SGMC采用了一种基因激发数据增强型数据增强型设计结构的模型,通过S-C的精确性能分析,通过S-C的精确性能分析,通过S-C的精确度分析,通过S-C的精确度的精确度分析,通过S-C的精确度分析,通过S-C-S-C-C-S-C-C-S-C-C-C-C-C-C-C-C-S-C-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-C-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
162+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
101+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2022年5月6日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2020年7月21日
A Survey on Deep Learning for Named Entity Recognition
Arxiv
26+阅读 · 2020年3月13日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员