Deep neural networks (DNNs) have achieved excellent results in various tasks, including image and speech recognition. However, optimizing the performance of DNNs requires careful tuning of multiple hyperparameters and network parameters via training. High-performance DNNs utilize a large number of parameters, corresponding to high energy consumption during training. To address these limitations, researchers have developed spiking neural networks (SNNs), which are more energy-efficient and can process data in a biologically plausible manner, making them well-suited for tasks involving sensory data processing, i.e., neuromorphic data. Like DNNs, SNNs are vulnerable to various threats, such as adversarial examples and backdoor attacks. Yet, the attacks and countermeasures for SNNs have been almost fully unexplored. This paper investigates the application of backdoor attacks in SNNs using neuromorphic datasets and different triggers. More precisely, backdoor triggers in neuromorphic data can change their position and color, allowing a larger range of possibilities than common triggers in, e.g., the image domain. We propose different attacks achieving up to 100\% attack success rate without noticeable clean accuracy degradation. We also evaluate the stealthiness of the attacks via the structural similarity metric, showing our most powerful attacks being also stealthy. Finally, we adapt the state-of-the-art defenses from the image domain, demonstrating they are not necessarily effective for neuromorphic data resulting in inaccurate performance.


翻译:深度神经网络(DNN)在包括图像和语音识别在内的各种任务中取得了优异的成果。然而,优化DNN的性能需要通过培训对多个超参数和网络参数进行仔细调整。高性能的DNN使用大量参数,相当于培训期间的高能量消耗量。为解决这些局限性,研究人员开发了飞跃神经网络(SNNN),这些网络的能效更高,能够以生物上合理的方式处理数据,使其非常适合涉及感官数据处理的任务,即神经变形数据。像DNNS一样,SNNS很容易受到各种威胁,例如对抗性实例和后门攻击。然而,对SNNNN的攻击和对应措施几乎完全没有被探索。本文调查了SNNNN的后门攻击应用情况,使用神经变形数据集和不同的触发器。更精确地说,神经变形数据的后门触发器可以改变其位置和颜色,使得其可能性比普通的触发器更为广泛,例如神经变形数据。像DNNNNNN一样,S,SNNNNN很容易受到各种威胁,例如对抗的例子和后门攻击。然而,因此,SNNNNNNNNNNNNNNNNNE攻击的域的域内攻击的域内攻击的域内势必然会导致有效的性攻击的有效性攻击的准确性也显示最明显的性攻击,我们最后的地面攻击的精确性也显示最明显的攻击的精确性,我们最后显示的精确性,我们通过100次的地面攻击的精确性,我们所造式攻击的精确性,最后显示的精确性。我们提出的攻击的精确性,我们最接近于不显示的是结构的攻击性,我们所攻击的精确性,最后显示的是,我们所攻击的精确性,我们所攻击的精确性,我们所造攻击的精确性,我们所造攻击的精确性,最后显示的精确性,我们所造攻击的精确性,我们所造的攻击性,最后显示的精确性,我们所造攻击的精确性,我们所造的精确性攻击的精确性攻击的精确性攻击的精确性,最后的精确性攻击的精确性攻击的精确性攻击的精确性攻击的精确性攻击的精确性能。我们所造的精确性,最后显示的精确性。我们的

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
14+阅读 · 2020年10月26日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员