论文链接:
论文作者:
陈俊儒(浙江大学),杨洋(浙江大学),余涛(浙江大学),范莹莹(浙江大学),莫晓龙(诺尔医疗),阳及(埃默里大学)
为了评估定位癫痫发作区 (SOZ) 或者所谓的癫痫病灶,并指导癫痫外科手术,记录患者大脑的放电活动是必要的手段。这种电生理监测方法通常有两种类型:皮质脑电图(EEG)和立体脑电图(SEEG)。前者是非侵入性的,而后者是侵入性的(即需要在脑内插入电极),因此也包含更多的深层立体信息。例如,当 SOZ 位于大脑的深层结构(例如海马或岛状体)中,或者癫痫发作的偏侧性未知时,非侵入式检测便无法定位确切的癫痫发作病灶,此时,SEEG 方法是必要的。
▲ 图1. 癫痫波检测的阐释。(a)一根带有三个通道的电极被植入患者大脑记录SEEG数据。(b)BrainNet的整体解决方案:在多个层次学习脑波的扩散模式,从而预测如(a)中虚线框所示的癫痫波段。
由于数据采集的高频性与长达数十天的监测,SEEG 通常会产生极大量的数据,但通常其中只包含数十分钟的癫痫发作数据,因此,癫痫发作的低频性导致了标签不平衡是第二个挑战。最后,由于电极伪影缺陷、机械噪声、癫痫间期波的干扰等固有问题,如何克服 SEEG 数据遭受的这些噪声的严重影响是本文面临的第三个挑战。
为了解决以上提及的挑战,本文提出了第一个基于数据驱动的全新的癫痫波检测模型,称之为 BrainNet。为应对第一个挑战,本文旨在找出潜在的癫痫发生网络,这个网络能够追踪癫痫波随时间扩散的过程。为此,BrainNet 采用结构学习算法和图神经网络的方式,来联合学习动态的扩散图以及建模癫痫波的扩散模式。对于第二个挑战,BrainNet 采用自监督学习方法来克服极端不平衡的标签问题。具体来说,本文提出使用双向对比预测编码(BCPC)来预训练每个通道的每个片段的表示。针对第三个挑战,为了使模型对噪声更加鲁棒,本文提出了具有分层框架的辅助学习任务。
最终,通过以上提及的所有技术设计,本文的模型具有捕获动态扩散过程与提高癫痫波检测任务准确性的能力。同时,本文基于包含了多个患者的大规模的真实 SEEG 数据集进行了大量的实验。实验结果验证了本文的模型在癫痫波预测任务上的有效性,同时,案例研究表明本文的模型具有良好的捕获癫痫扩散过程的能力。
遵循时间序列的经典自监督学习模型,对比预测编码(CPC),将前置任务设置为:使用基于片段中间部分的局部特征的自回归模型输出的全局上下文特征,来预测从编码器获得的片段头部和尾部的 P 个局部特征。与 CPC 不同的是,本文认为双向模型通过令上下文特征同时包含在时间维度上的两个方向的语义信息将使得模型的表达能力更有效,这在 BERT 和 ELMo 等现有工作中也得到了说明。因此,本文将预训练模型设计为以 skip-gram 的方式预测两个方向的上下文。
具体来说,本文使用预定义的多层卷积神经网络将原始 SEEG 信号嵌入为局部特征。为了使模型具有提取双向信息的能力,本文采用带有专门设计的掩码矩阵的 Transformer 作为自回归模型,以获得全局上下文特征(如图 2 所示)。
受此过程的启发,BrainNet 采用分层结构来联合建模癫痫波及其在三个不同层次上的扩散过程,从高到低依次为:患者、大脑区域和通道层次(每个通道对应于大脑中的特定位置)。虽然本文研究的问题集中在通道级别,但实验发现可以从更高的层次提供一个更为宏观的观察视角,这有助于更精确地捕获癫痫波,特别是能够提高模型处理 SEEG 数据中严重噪声的鲁棒性。图 1(b) 阐明了 BrainNet 的层次化结构。
层次化标签构造。标签最初位于通道层次。按照与医生诊断相反的逻辑顺序,本文将一个大脑区域标记为癫痫,其中包含至少一个通道是癫痫。类似地,如果至少一个大脑区域异常,则认为患者处于癫痫发作状态。
高层次的表征学习。本文聚合来自较低层次的表示以获得较高层次的表示。虽然置换不变的池化操作有许多可选项,但本文采用最大池化操作来聚合表示,这是因为这种方法更符合层次化标签的构造过程,并且本文需要的是对较低层次的癫痫状态贡献最大的那些特征。
在池化操作之后,在高层次表示上通过图扩散模块以获得各自的目标函数。考虑到完全独立的参数不能保证一致的优化方向,因此本文让三个层次在图扩散模块和判别器 D 中共享相同的参数集,以对齐它们的表示空间。最终,本文联合优化三个层次上的不同任务。
通道层次与患者层次主任务的性能:如表 1 所示,在通道层次的 F2 指标上,BrainNet 分别在正负样本比为 1:5、1:50 和 1:500 的数据集上比最优基准方法提升了 12.31%、36.66% 和 142.03%;在患者层次的 F2 指标上,BrainNet 在正负样本比为 1:5、1:50 和 1:500 的数据集上比最优基准方法平均提升了 50.95%。
▲ 图5. 在线系统的展示。背景是某个患者文件的总览图,前者是其中某个绿色方格(1分钟数据)的具体数据展示。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧