Recently deep learning has reached human-level performance in classifying arrhythmia from Electrocardiogram (ECG). However, deep neural networks (DNN) are vulnerable to adversarial attacks, which can misclassify ECG signals by decreasing the model's precision. Adversarial attacks are crafted perturbations injected in data that manifest the conventional DNN models to misclassify the correct class. Thus, safety concerns arise as it becomes challenging to establish the system's reliability, given that clinical applications require high levels of trust. To mitigate this problem and make DNN models more robust in clinical and real-life settings, we introduce a novel Conditional Generative Adversarial Network (GAN), robust against adversarial attacked ECG signals and retaining high accuracy. Furthermore, we compared it with other state-of-art models to detect cardiac abnormalities from indistinguishable adversarial attacked ECGs. The experiment confirms, our model is more robust against adversarial attacks compared to other architectures.


翻译:最近深层的学习在对心电图(ECG)的心律失常进行分类方面达到了人类层面的成绩。然而,深神经网络(DNN)很容易受到对抗性攻击,这种攻击会降低模型的精确度,从而错误地分辨ECG信号。反向攻击被注入了显示常规DNN模型的数据中,从而错误地分类正确的等级。因此,由于临床应用需要高度信任,建立系统的可靠性变得十分困难,因此出现了安全问题。为了减轻这一问题,并使DNNN模型在临床和现实生活环境中更加强大,我们引入了新型的CAN条件生成性对抗性反向网络(GAN),对攻击ECG信号的对抗性很强,并保持了很高的准确性。此外,我们将它与其他最先进的模型进行比较,以发现与不可分辨的对立性对立式攻击ECG的心脏异常性。实验证实,我们的模型比其他结构更有力地对付对抗性攻击。

0
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
stackGAN通过文字描述生成图片的V2项目
CreateAMind
3+阅读 · 2018年1月1日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月6日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
11+阅读 · 2018年3月23日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员