虽然深度神经网络(DNNs)已经成功地部署在各种真实的应用场景中,但最近的研究表明,DNNs非常容易受到对抗性攻击。通过在良性输入中引入视觉上难以察觉的扰动,攻击者可以操纵DNN模型来提供错误的预测。对于正在将DNN应用于现实问题的从业者来说,了解不同类型攻击的特征,不仅可以帮助他们提高模型的鲁棒性,还可以帮助他们对DNN的工作机制有更深入的了解。在本教程中,我们将全面概述对抗性学习的最新进展,包括攻击方法和防御方法。具体来说,我们首先详细介绍了各种类型的规避攻击,然后介绍了一系列具有代表性的规避攻击的防御方法。然后我们讨论了不同的中毒攻击方法,然后介绍了几种针对中毒攻击的防御方法。此外,除了介绍在数字环境中工作的攻击方法外,我们还介绍了针对威胁物理世界系统而设计的攻击方法。最后,我们提出了一个PyTorch对抗性学习库DeepRobust,旨在建立一个全面的、易于使用的平台来培养这个研究领域。通过我们的教程,观众可以掌握对抗性攻击和防御的主要思想,并对DNN的鲁棒性有深入的了解。

本教程由六个主要部分组成,包括(1)介绍,(2)规避攻击和防御,(3)投毒攻击和防御,(4)物理世界中的对抗性攻击,(5)DeepRobust:一个用于对抗性学习的简单PyTorch存储库(6)总结和未来方向。接下来,我们将描述每个组件的细节

首先,我们简要介绍了什么是对抗性攻击现象,以及为什么它可以成为DNN应用的一个巨大关注。我们展示在各种真实应用场景中出现的对抗性攻击的几个案例。这些场景包括自动驾驶汽车、欺诈者检测、对话系统和版权检测。这些插图可以强调对抗性攻防相关主题的重要性,并引起观众的广泛兴趣。此外,我们还介绍了对抗性学习的主要组成部分的必要概念,包括逃避/中毒攻击、白盒/黑盒攻击、有目标/无目标攻击。

规避攻击与防御

在本节中,我们将重点介绍模型推断阶段发生的攻击方法,即规避攻击,以及相应的对策。具体来说,我们首先总结了几种具有代表性的白盒/黑盒攻击设置的规避攻击方法,如FGSM[3]、CW[1]和ZOO[2]。然后,我们将现有的针对规避攻击的防御方法分为四组,即(1)梯度掩蔽/混淆,(2)对抗性训练,(3)对抗性实例检测和(4)认证防御,并为每组引入一些知名的方法。在介绍每种防御方法的主要思想的同时,还讨论了它们的应用场景和弱点。

中毒攻击与防御

在本节中,我们将讨论发生在DNN模型训练阶段的另一种重要的对抗性攻击类型,即中毒攻击及其对策。我们首先介绍几种经典的有针对性/无针对性的中毒攻击方法,如毒蛙[6]和BlackCard[4]。然后,我们讨论一种特定类型的对抗性攻击:后门攻击,它操纵DNN模型的训练阶段和推断阶段。特别地,将详细介绍两种常见的后门攻击类型,即模型不可知攻击和特定于模型的攻击。针对中毒攻击的防御方法,我们也将现有的方法分为三组:(1)中毒数据/模型检测,(2)中毒模型修复和(3)鲁棒训练,并为每组介绍了几项具有代表性的方法。

物理世界中的对抗性攻击

前面介绍的攻击方法是针对数字空间设置提出的,其中生成的对抗示例可以直接输入DNN模型。然而,对抗性攻击也可能发生在物理世界中,其中DNN模型的输入是由摄像机获得的,攻击者只能向摄像机展示对抗性示例。在本节中,我们讨论了几个相关的作品,让观众了解对抗性攻击在物理世界中的机制和效果。

在本节中,我们将介绍一个流行的、用户友好的用于对抗攻击和防御的PyTorch存储库-DeepRobust[5]。该知识库为用户提供了图像领域10多种流行的攻击算法和10多种防御算法,以及图神经网络对抗学习中的15多种算法的快速访问。该存储库是为想要实现攻击/防御算法的即时用户以及对抗性学习领域的研究人员和开发人员构建的,他们可以基于现有的灵活和可扩展的代码构建新的算法。该存储库基于Pytorch平台,可以在https://github.com/DSE-MSU/DeepRobust上找到该平台。

成为VIP会员查看完整内容
37

相关内容

国际知识发现与数据挖掘大会 (ACM SIGKDD Conference on Knowledge Discovery and Data Mining,简称KDD) 是数据挖掘领域的顶级会议。第28届SIGKDD会议将于8月14日至18日在华盛顿举行。据统计,今年共有1695篇有效投稿,其中254篇论文被接收,接收率为14.98%,Applied Data Science Track录用率为25.90%。
UCL& UC Berkeley | 深度强化学习中的泛化研究综述
专知会员服务
59+阅读 · 2021年11月22日
专知会员服务
44+阅读 · 2021年5月17日
专知会员服务
88+阅读 · 2021年1月17日
专知会员服务
94+阅读 · 2020年12月8日
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
51+阅读 · 2020年10月10日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
IJCAI2022《对抗序列决策》教程,164页ppt
专知
4+阅读 · 2022年7月27日
避免自动驾驶事故,CV领域如何检测物理攻击?
机器之心
2+阅读 · 2022年1月10日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年10月4日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
14+阅读 · 2020年2月6日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关VIP内容
UCL& UC Berkeley | 深度强化学习中的泛化研究综述
专知会员服务
59+阅读 · 2021年11月22日
专知会员服务
44+阅读 · 2021年5月17日
专知会员服务
88+阅读 · 2021年1月17日
专知会员服务
94+阅读 · 2020年12月8日
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
51+阅读 · 2020年10月10日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
微信扫码咨询专知VIP会员