It is well-known that recurrent neural networks (RNNs), although widely used, are vulnerable to adversarial attacks including one-frame attacks and multi-frame attacks. Though a few certified defenses exist to provide guaranteed robustness against one-frame attacks, we prove that defending against multi-frame attacks remains a challenging problem due to their enormous perturbation space. In this paper, we propose the first certified defense against multi-frame attacks for RNNs called RNN-Guard. To address the above challenge, we adopt the perturb-all-frame strategy to construct perturbation spaces consistent with those in multi-frame attacks. However, the perturb-all-frame strategy causes a precision issue in linear relaxations. To address this issue, we introduce a novel abstract domain called InterZono and design tighter relaxations. We prove that InterZono is more precise than Zonotope yet carries the same time complexity. Experimental evaluations across various datasets and model structures show that the certified robust accuracy calculated by RNN-Guard with InterZono is up to 2.18 times higher than that with Zonotope. In addition, we extend RNN-Guard as the first certified training method against multi-frame attacks to directly enhance RNNs' robustness. The results show that the certified robust accuracy of models trained with RNN-Guard against multi-frame attacks is 15.47 to 67.65 percentage points higher than those with other training methods.


翻译:循环神经网络(RNN)被广泛使用,但已经被证明是容易受到单帧攻击和多帧攻击的影响。尽管有一些已经存在的保护方法可以提供针对单帧攻击的保证鲁棒性,但我们证明,由于巨大的扰动空间,抵御多帧攻击仍然是一个具有挑战性的问题。在本文中,我们提出了第一种针对RNN多帧攻击的保证性防御- RNN-Guard。为了应对上述挑战,我们采用扰动-所有帧策略来构建与多帧攻击中相一致的扰动空间。然而,该扰动-所有帧策略会导致线性松弛中的精度问题。为了解决这个问题,我们引入了一种新的抽象域叫做InterZono,并设计了更紧的松弛度。我们证明InterZono比Zonotope更精确,而且耗时相同。在各种数据集和模型结构上进行的实验评估显示,通过InterZono计算的RNN-Guard的保证鲁棒准确性比使用Zonotope的保证鲁棒准确性高达2.18倍。此外,我们将RNN-Guard扩展为针对多帧攻击的第一个保护训练方法,以直接增强RNN的鲁棒性。结果显示,使用RNN-Guard进行训练,针对多帧攻击的可信鲁棒准确性比使用其他训练方法的准确性高出15.47至67.65个百分点。

0
下载
关闭预览

相关内容

RNN:循环神经网络,是深度学习的一种模型。
【Google AI】鲁棒图神经网络,Robust Graph Neural Networks
专知会员服务
38+阅读 · 2022年3月9日
【AAAI2021】组合对抗攻击
专知会员服务
51+阅读 · 2021年2月17日
专知会员服务
26+阅读 · 2021年1月21日
专知会员服务
45+阅读 · 2020年9月3日
AAAI 2022 | 对抗攻击鲁棒的异质图神经网络
PaperWeekly
1+阅读 · 2022年8月16日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
视频目标检测:Flow-based
极市平台
22+阅读 · 2019年5月27日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月31日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
12+阅读 · 2020年12月10日
A Comprehensive Survey on Transfer Learning
Arxiv
121+阅读 · 2019年11月7日
VIP会员
相关资讯
AAAI 2022 | 对抗攻击鲁棒的异质图神经网络
PaperWeekly
1+阅读 · 2022年8月16日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
视频目标检测:Flow-based
极市平台
22+阅读 · 2019年5月27日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员