本教程旨在介绍深度学习的对抗鲁棒性的基础知识,对最新技术进行了结构化的回顾,以评估各种类型的深度学习模型对对抗示例的脆弱性。本教程将特别强调对抗对抗攻击的最新技术和深度神经网络(DNNs)的鲁棒性验证。我们还将介绍一些有效的对策来提高深度学习模型的鲁棒性,特别关注可泛化的对抗训练。我们的目标是提供关于这一新兴方向的全面图景,并使社区意识到在关键安全数据分析应用中设计鲁棒的深度学习模型的紧迫性和重要性,最终使最终用户能够信任深度学习分类器。我们还将总结关于深度学习的对抗鲁棒性的潜在研究方向,以及基于深度学习的可靠和值得信赖的数据分析系统和应用的潜在好处。

http://tutorial-cikm.trustai.uk/

本教程的内容如下:

  • 对抗性鲁棒性简介: 这部分将通过展示一些计算机视觉、自然语言处理、恶意软件检测、自主系统的例子来介绍对抗性鲁棒性的概念。具体来说,我们将演示不同类型的深度学习模型在不同对抗样例中的漏洞。我们还将强调不同社区对对抗鲁棒性的不同研究重点,即攻击、防御和验证。

  • 对抗性攻击: 这部分将详细介绍一些著名的对抗性攻击方法,目的是提供一些见解,为什么对抗性例子退出,以及如何有效和高效地产生对抗性扰动。具体来说,我们将展示五部已经成熟的工作,包括FGSM[1]、C&W[2]、DeepFool[3]、JMSA[4]、ZeroAttack[20]。在本部分的最后,我们还将简要介绍最近出现的一些新的对抗性例子,包括通用对抗性例子[21]、空间变换攻击[7]、对抗性补丁[22]等

  • 验证: 这部分将回顾最先进的形式验证技术,以检查深度学习模型是否健壮。将要讨论的技术包括基于约束求解的技术(MILP, Reluplex[8]),近似技术(MaxSens [23], AI2 [10], DeepSymbol),和基于全局优化的技术(DLV [11], DeepGO [12], DeepGame[17])。

  • 对抗防御: 本部分将概述对抗防御的最先进的鲁棒优化技术,重点是可泛化的对抗训练和正规化方法。特别是,快速梯度法(FGM)的对抗训练[14]、投影梯度法(PGM)[15]、沃瑟斯坦风险最小化(WRM)[18]将根据泛化保证进行分析,此外,还将讨论正则化技术,如光谱标准化[13]和Lipschitz正则化[23],以促进训练的稳定性和对抗例子的鲁棒性。

成为VIP会员查看完整内容
41

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
29+阅读 · 2021年10月17日
《过参数化机器学习理论》综述论文
专知会员服务
45+阅读 · 2021年9月19日
专知会员服务
44+阅读 · 2021年5月24日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
44+阅读 · 2020年10月31日
【ECAI2020】可扩展深度学习: 理论与算法,120页ppt
专知会员服务
27+阅读 · 2020年9月25日
专知会员服务
71+阅读 · 2020年9月20日
知识图谱中的深度学习技术应用概述
深度学习与NLP
11+阅读 · 2018年9月13日
贝叶斯机器学习前沿进展
无人机
7+阅读 · 2018年1月26日
深度学习之DNN与反向传播算法
机器学习算法与Python学习
4+阅读 · 2017年9月11日
Arxiv
0+阅读 · 2022年1月7日
Arxiv
0+阅读 · 2022年1月6日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
9+阅读 · 2021年2月25日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关论文
Arxiv
0+阅读 · 2022年1月7日
Arxiv
0+阅读 · 2022年1月6日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
9+阅读 · 2021年2月25日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
5+阅读 · 2017年12月14日
微信扫码咨询专知VIP会员