深度神经网络(DNN)在各个领域的大量机器学习任务中取得了前所未有的成功。然而,在将DNN模型应用于诸如自动驾驶汽车和恶意软件检测等安全关键任务时,存在的一些反面例子给我们带来了很大的犹豫。这些对抗例子都是故意制作的实例,无论是出现在火车上还是测试阶段,都可以欺骗DNN模型,使其犯下严重错误。因此,人们致力于设计更健壮的模型来抵御对抗的例子,但它们通常会被新的更强大的攻击击垮。这种对抗性的攻击和防御之间的军备竞赛近年来受到越来越多的关注。**在本教程中,我们将全面概述对抗性攻击的前沿和进展,以及它们的对策。特别地,我们详细介绍了不同场景下的不同类型的攻击,包括闪避和中毒攻击,白盒和黑盒攻击。**我们还将讨论防御策略如何发展以对抗这些攻击,以及新的攻击如何出现以打破这些防御。此外,我们将讨论在其他数据域中的敌对攻击和防御,特别是在图结构数据中。然后介绍了Pytorch对抗式学习图书馆DeepRobust,旨在为该研究领域的发展搭建一个全面、易用的平台。最后,我们通过讨论对抗性攻击和防御的开放问题和挑战来总结本教程。通过我们的教程,我们的观众可以掌握对抗性攻击和防御之间的主要思想和关键方法。

目录内容: Part 1. Introduction about adversarial examples and robustness. Part 2. Algorithms for generating adversarial examples. Part 3. Defending algorithms and adaptive attacks. Part 4. Adversarial learning in Graph domain. Part 5. DeepRobust-- A Pytorch Repository for Adversarial learning.

成为VIP会员查看完整内容
77

相关内容

【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
52+阅读 · 2020年10月10日
专知会员服务
71+阅读 · 2020年9月20日
专知会员服务
64+阅读 · 2020年9月10日
【KDD2020】图深度学习:基础、进展与应用,182页ppt
专知会员服务
135+阅读 · 2020年8月30日
专知会员服务
108+阅读 · 2020年8月28日
专知会员服务
169+阅读 · 2020年8月26日
专知会员服务
46+阅读 · 2020年8月23日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
177页《鲁棒机器学习》教程【下载】
机器学习算法与Python学习
8+阅读 · 2018年11月15日
115页Slides带你领略深度生成模型全貌(附PPT)
数据派THU
12+阅读 · 2018年7月31日
Arxiv
20+阅读 · 2020年6月8日
Arxiv
38+阅读 · 2020年3月10日
Arxiv
7+阅读 · 2019年5月31日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
52+阅读 · 2020年10月10日
专知会员服务
71+阅读 · 2020年9月20日
专知会员服务
64+阅读 · 2020年9月10日
【KDD2020】图深度学习:基础、进展与应用,182页ppt
专知会员服务
135+阅读 · 2020年8月30日
专知会员服务
108+阅读 · 2020年8月28日
专知会员服务
169+阅读 · 2020年8月26日
专知会员服务
46+阅读 · 2020年8月23日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
相关论文
Arxiv
20+阅读 · 2020年6月8日
Arxiv
38+阅读 · 2020年3月10日
Arxiv
7+阅读 · 2019年5月31日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
7+阅读 · 2018年6月8日
微信扫码咨询专知VIP会员