Objective: We used deep convolutional neural networks (DCNNs) to classify electroencephalography (EEG) signals in a steady-state visually evoked potentials (SSVEP) based single-channel brain-computer interface (BCI), which does not require calibration on the user. Methods: EEG signals were converted to spectrograms and served as input to train DCNNs using the transfer learning technique. We also modified and applied a data augmentation method, SpecAugment, generally employed for speech recognition. Furthermore, for comparison purposes, we classified the SSVEP dataset using Support-vector machines (SVMs) and Filter Bank canonical correlation analysis (FBCCA). Results: Excluding the evaluated user's data from the fine-tuning process, we reached 82.2% mean test accuracy and 0.825 mean F1-Score on 35 subjects from an open dataset, using a small data length (0.5 s), only one electrode (Oz) and the DCNN with transfer learning, window slicing (WS) and SpecAugment's time masks. Conclusion: The DCNN results surpassed SVM and FBCCA performances, using a single electrode and a small data length. Transfer learning provided minimal accuracy change, but made training faster. SpecAugment created a small performance improvement and was successfully combined with WS, yielding higher accuracies. Significance: We present a new methodology to solve the problem of SSVEP classification using DCNNs. We also modified a speech recognition data augmentation technique and applied it to the context of BCIs. The presented methodology surpassed performances obtained with FBCCA and SVMs (more traditional SSVEP classification methods) in BCIs with small data lengths and one electrode. This type of BCI can be used to develop small and fast systems.


翻译:目标:我们使用了深层神经神经网络(DCNNNs)来将电动神经网络(EEG)信号分类为稳定状态的直观潜在(SSVEP)和过滤银行的单声道脑计算机界面(BCI),不需要用户校准。方法:EEG信号被转换成光谱图,并用作使用传输学习技术培训DCNNs的输入。我们还修改并应用了数据增强方法,通常用于语音识别。此外,为了比较的目的,我们使用支持定位机器(SVMS)和过滤银行的直观关系分析(FCCA)。结果:将评估用户的数据从微调进程中排除,我们达到82.2%的测试精度,用传输学习技术对35个主题的0.825平均F1核心值。我们用一个小数据长度(0.5 s)、一个小电德(Oz)和带有传输学习、窗口校正读和SpeciPA的升级环境。这个结论:DGNFNFNCS的性能测试方法,我们用SDA和SVER的快速数据方法,我们用了SVBSVB的快速数据方法,我们用了一个新的性能和SVB的性能方法,我们用了一个SVBA和SVDROde的性能方法,我们用了一个SVB的快速的性能和SVFVB的性能。我们提供了一个新的性能的快速的性能方法,我们提供了一个新的数据。

0
下载
关闭预览

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
74+阅读 · 2020年8月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Arxiv
0+阅读 · 2021年5月11日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Arxiv
12+阅读 · 2019年3月14日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Top
微信扫码咨询专知VIP会员