最新深度学习对抗鲁棒性教程

  • 深度学习基础 Deep learning essentials
  • 对抗扰动 Introduction to adversarial perturbations
    • Simple Projected Gradient Descent-based attacks
    • Targeted Projected Gradient Descent-based attacks
    • Fast Gradient Sign Method (FGSM) attacks
    • Natural [8]
    • Synthetic [1, 2]
  • Optimizer susceptibility w.r.t to different attacks 优化器对不同攻击的敏感性w.r.
  • 对抗学习 Adversarial learning
    • Training on a dataset perturbed with FGSM
    • Training with Neural Structured Learning [3]
  • Improving adversarial performance with EfficientNet [4] and its variants like Noisy Student Training [5] and AdvProp [6]

https://github.com/dipanjanS/adversarial-learning-robustness

成为VIP会员查看完整内容
0
29

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

Google 研究科学家Mathieu Blondel在PSL大学的“机器学习的对偶性”课程材料。主题包括共轭函数,平滑技术,Fenchel对偶性,Fenchel-Young损失和块对偶坐标上升算法。

http://mblondel.org/teaching/duality-2020.pdf

成为VIP会员查看完整内容
0
30

Recently, many studies show that deep neural networks (DNNs) are susceptible to adversarial examples. However, in order to convince that adversarial examples are real threats in real physical world, it is necessary to study and evaluate the adversarial examples in real-world scenarios. In this paper, we propose a robust and natural physical adversarial example attack method targeting object detectors under real-world conditions, which is more challenging than targeting image classifiers. The generated adversarial examples are robust to various physical constraints and visually look similar to the original images, thus these adversarial examples are natural to humans and will not cause any suspicions. First, to ensure the robustness of the adversarial examples in real-world conditions, the proposed method exploits different image transformation functions (Distance, Angle, Illumination, Printing and Photographing), to simulate various physical changes during the iterative optimization of the adversarial examples generation. Second, to construct natural adversarial examples, the proposed method uses an adaptive mask to constrain the area and intensities of added perturbations, and utilizes the real-world perturbation score (RPS) to make the perturbations be similar to those real noises in physical world. Compared with existing studies, our generated adversarial examples can achieve a high success rate with less conspicuous perturbations. Experimental results demonstrate that, the generated adversarial examples are robust under various indoor and outdoor physical conditions. Finally, the proposed physical adversarial attack method is universal and can work in black-box scenarios. The generated adversarial examples generalize well between different models.

0
0
下载
预览

深度神经网络(DNN)在各个领域的大量机器学习任务中取得了前所未有的成功。然而,在将DNN模型应用于诸如自动驾驶汽车和恶意软件检测等安全关键任务时,存在的一些反面例子给我们带来了很大的犹豫。这些对抗例子都是故意制作的实例,无论是出现在火车上还是测试阶段,都可以欺骗DNN模型,使其犯下严重错误。因此,人们致力于设计更健壮的模型来抵御对抗的例子,但它们通常会被新的更强大的攻击击垮。这种对抗性的攻击和防御之间的军备竞赛近年来受到越来越多的关注。**在本教程中,我们将全面概述对抗性攻击的前沿和进展,以及它们的对策。特别地,我们详细介绍了不同场景下的不同类型的攻击,包括闪避和中毒攻击,白盒和黑盒攻击。**我们还将讨论防御策略如何发展以对抗这些攻击,以及新的攻击如何出现以打破这些防御。此外,我们将讨论在其他数据域中的敌对攻击和防御,特别是在图结构数据中。然后介绍了Pytorch对抗式学习图书馆DeepRobust,旨在为该研究领域的发展搭建一个全面、易用的平台。最后,我们通过讨论对抗性攻击和防御的开放问题和挑战来总结本教程。通过我们的教程,我们的观众可以掌握对抗性攻击和防御之间的主要思想和关键方法。

目录内容: Part 1. Introduction about adversarial examples and robustness. Part 2. Algorithms for generating adversarial examples. Part 3. Defending algorithms and adaptive attacks. Part 4. Adversarial learning in Graph domain. Part 5. DeepRobust-- A Pytorch Repository for Adversarial learning.

成为VIP会员查看完整内容
0
47

如果你对在嵌入式设备上运行机器学习感兴趣,但不确定如何开始,谷歌的TensorFlow微团队的皮特·沃登将介绍如何构建和运行你自己的TinyML应用程序。这将包括可用的不同板子、软件框架和教程的概述,以帮助您入门和运行。

成为VIP会员查看完整内容
0
44
小贴士
相关VIP内容
专知会员服务
30+阅读 · 2020年11月29日
专知会员服务
53+阅读 · 2020年9月30日
专知会员服务
82+阅读 · 2020年8月28日
专知会员服务
97+阅读 · 2020年6月28日
专知会员服务
99+阅读 · 2020年2月1日
相关论文
Jinhuan Duan,Xianxian Li,Shiqi Gao,Jinyan Wang,Zili Zhong
0+阅读 · 2020年12月3日
Han Qiu,Yi Zeng,Tianwei Zhang,Yong Jiang,Meikang Qiu
0+阅读 · 2020年12月3日
Yilun Du,Shuang Li,Joshua Tenenbaum,Igor Mordatch
0+阅读 · 2020年12月2日
Mingfu Xue,Chengxiang Yuan,Can He,Jian Wang,Weiqiang Liu
0+阅读 · 2020年11月27日
Cihang Xie,Mingxing Tan,Boqing Gong,Jiang Wang,Alan Yuille,Quoc V. Le
4+阅读 · 2019年11月21日
Scene Text Detection and Recognition: The Deep Learning Era
Shangbang Long,Xin He,Cong Yao
15+阅读 · 2019年9月5日
Felix Kreuk,Assi Barak,Shir Aviv-Reuven,Moran Baruch,Benny Pinkas,Joseph Keshet
4+阅读 · 2018年5月13日
Joachim D. Curtó,Irene C. Zarza,Fernando De La Torre,Irwin King,Michael R. Lyu
7+阅读 · 2018年1月27日
Chichen Fu,Soonam Lee,David Joon Ho,Shuo Han,Paul Salama,Kenneth W. Dunn,Edward J. Delp
18+阅读 · 2018年1月22日
Chaowei Xiao,Bo Li,Jun-Yan Zhu,Warren He,Mingyan Liu,Dawn Song
9+阅读 · 2018年1月15日
Top