深度学习算法已经在图像分类方面取得了最先进的性能,甚至被用于安全关键应用,如生物识别系统和自动驾驶汽车。最近的研究表明,这些算法甚至可以超越人类的能力,很容易受到对抗性例子的攻击。在计算机视觉中,与之相对的例子是恶意优化算法为欺骗分类器而产生的含有细微扰动的图像。为了缓解这些漏洞,文献中不断提出了许多对策。然而,设计一种有效的防御机制已被证明是一项困难的任务,因为许多方法已经证明对自适应攻击者无效。因此,这篇自包含的论文旨在为所有的读者提供一篇关于图像分类中对抗性机器学习的最新研究进展的综述。本文介绍了新的对抗性攻击和防御的分类方法,并讨论了对抗性实例的存在性。此外,与现有的调查相比,它还提供了相关的指导,研究人员在设计和评估防御时应该考虑到这些指导。最后,在文献综述的基础上,对未来的研究方向进行了展望。
https://www.zhuanzhi.ai/paper/396e587564dc2922d222cd3ac7b84288