深度神经网络(DNN)在各个领域的大量机器学习任务中取得了前所未有的成功。然而,在将DNN模型应用于诸如自动驾驶汽车和恶意软件检测等安全关键任务时,存在的一些反面例子给我们带来了很大的犹豫。这些对抗例子都是故意制作的实例,无论是出现在火车上还是测试阶段,都可以欺骗DNN模型,使其犯下严重错误。因此,人们致力于设计更健壮的模型来抵御对抗的例子,但它们通常会被新的更强大的攻击击垮。这种对抗性的攻击和防御之间的军备竞赛近年来受到越来越多的关注。**在本教程中,我们将全面概述对抗性攻击的前沿和进展,以及它们的对策。特别地,我们详细介绍了不同场景下的不同类型的攻击,包括闪避和中毒攻击,白盒和黑盒攻击。**我们还将讨论防御策略如何发展以对抗这些攻击,以及新的攻击如何出现以打破这些防御。此外,我们将讨论在其他数据域中的敌对攻击和防御,特别是在图结构数据中。然后介绍了Pytorch对抗式学习图书馆DeepRobust,旨在为该研究领域的发展搭建一个全面、易用的平台。最后,我们通过讨论对抗性攻击和防御的开放问题和挑战来总结本教程。通过我们的教程,我们的观众可以掌握对抗性攻击和防御之间的主要思想和关键方法。
目录内容: Part 1. Introduction about adversarial examples and robustness. Part 2. Algorithms for generating adversarial examples. Part 3. Defending algorithms and adaptive attacks. Part 4. Adversarial learning in Graph domain. Part 5. DeepRobust-- A Pytorch Repository for Adversarial learning.