本教程旨在介绍深度学习的对抗鲁棒性的基础知识,对最新技术进行了结构化的回顾,以评估各种类型的深度学习模型对对抗示例的脆弱性。本教程将特别强调对抗对抗攻击的最新技术和深度神经网络(DNNs)的鲁棒性验证。我们还将介绍一些有效的对策来提高深度学习模型的鲁棒性,特别关注可泛化的对抗训练。我们的目标是提供关于这一新兴方向的全面图景,并使社区意识到在关键安全数据分析应用中设计鲁棒的深度学习模型的紧迫性和重要性,最终使最终用户能够信任深度学习分类器。我们还将总结关于深度学习的对抗鲁棒性的潜在研究方向,以及基于深度学习的可靠和值得信赖的数据分析系统和应用的潜在好处。
http://tutorial-cikm.trustai.uk/
本教程的内容如下:
对抗性鲁棒性简介: 这部分将通过展示一些计算机视觉、自然语言处理、恶意软件检测、自主系统的例子来介绍对抗性鲁棒性的概念。具体来说,我们将演示不同类型的深度学习模型在不同对抗样例中的漏洞。我们还将强调不同社区对对抗鲁棒性的不同研究重点,即攻击、防御和验证。
对抗性攻击: 这部分将详细介绍一些著名的对抗性攻击方法,目的是提供一些见解,为什么对抗性例子退出,以及如何有效和高效地产生对抗性扰动。具体来说,我们将展示五部已经成熟的工作,包括FGSM[1]、C&W[2]、DeepFool[3]、JMSA[4]、ZeroAttack[20]。在本部分的最后,我们还将简要介绍最近出现的一些新的对抗性例子,包括通用对抗性例子[21]、空间变换攻击[7]、对抗性补丁[22]等
验证: 这部分将回顾最先进的形式验证技术,以检查深度学习模型是否健壮。将要讨论的技术包括基于约束求解的技术(MILP, Reluplex[8]),近似技术(MaxSens [23], AI2 [10], DeepSymbol),和基于全局优化的技术(DLV [11], DeepGO [12], DeepGame[17])。
对抗防御: 本部分将概述对抗防御的最先进的鲁棒优化技术,重点是可泛化的对抗训练和正规化方法。特别是,快速梯度法(FGM)的对抗训练[14]、投影梯度法(PGM)[15]、沃瑟斯坦风险最小化(WRM)[18]将根据泛化保证进行分析,此外,还将讨论正则化技术,如光谱标准化[13]和Lipschitz正则化[23],以促进训练的稳定性和对抗例子的鲁棒性。