Detailed analysis of seizure semiology, the symptoms and signs which occur during a seizure, is critical for management of epilepsy patients. Inter-rater reliability using qualitative visual analysis is often poor for semiological features. Therefore, automatic and quantitative analysis of video-recorded seizures is needed for objective assessment. We present GESTURES, a novel architecture combining convolutional neural networks (CNNs) and recurrent neural networks (RNNs) to learn deep representations of arbitrarily long videos of epileptic seizures. We use a spatiotemporal CNN (STCNN) pre-trained on large human action recognition (HAR) datasets to extract features from short snippets (approx. 0.5 s) sampled from seizure videos. We then train an RNN to learn seizure-level representations from the sequence of features. We curated a dataset of seizure videos from 68 patients and evaluated GESTURES on its ability to classify seizures into focal onset seizures (FOSs) (N = 106) vs. focal to bilateral tonic-clonic seizures (TCSs) (N = 77), obtaining an accuracy of 98.9% using bidirectional long short-term memory (BLSTM) units. We demonstrate that an STCNN trained on a HAR dataset can be used in combination with an RNN to accurately represent arbitrarily long videos of seizures. GESTURES can provide accurate seizure classification by modeling sequences of semiologies.


翻译:对癫痫病人的管理至关重要:使用定性直观分析进行定性视觉分析的跨部可靠性往往缺乏,因此,需要为客观评估对录下来的缉获进行自动和定量分析,因此,需要为客观评估对录象的缉获进行客观分析;我们提出GESTURES,这是一个将神经神经系统网络和经常神经网络相结合的新结构,以了解对癫痫缉获量任意长视频的深刻描述;我们使用一个半流行性CNN(STCNN)预先培训的大规模人类行动识别(HAR)数据集,从短片(约0.5秒)提取特征;因此,我们培训一个RNNN,以学习从特征顺序学取的缉获水平表现;我们整理了68名病人的缉获视频数据集,并评价了GESTURES关于将缉获分类成重点发作样(FOS)模型(N=106)和双边精神结结关缉获(TCCNS=77)的焦点,然后用经过长期培训的RIS数据库显示98.9%的准确性缉获序列;我们可以用STSUR数据库提供长期使用的SIS数据序列,用SIS数据库来准确地展示长期记录。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
31+阅读 · 2021年7月15日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
视频目标识别资源集合
专知
25+阅读 · 2019年6月15日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年8月23日
Arxiv
0+阅读 · 2021年8月20日
Arxiv
8+阅读 · 2021年6月2日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Arxiv
15+阅读 · 2018年6月23日
Arxiv
15+阅读 · 2018年2月4日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
视频目标识别资源集合
专知
25+阅读 · 2019年6月15日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年8月23日
Arxiv
0+阅读 · 2021年8月20日
Arxiv
8+阅读 · 2021年6月2日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Arxiv
15+阅读 · 2018年6月23日
Arxiv
15+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员