深度学习面临的一个关键挑战是深度学习网络容易受到智能网络对手的安全攻击。即使对训练数据进行无害的扰动,也可以用来以意想不到的方式操纵深度网络的行为。在本书中,我们回顾了计算机视觉中对抗性攻击技术的最新发展;自然语言处理;以及多维、文本和图像数据、序列数据和时间数据的网络安全。评估了深度学习网络的鲁棒性,以产生对抗性样本的分类,刻画了使用博弈论对抗性深度学习算法学习系统的安全性。对基于对抗扰动的隐私保护机制的研究现状进行了综述。

本文为非平稳计算学习环境中的博弈论目标提出了新的对手类型。在我们研究的决策问题中,对假设集的适当量化会导致各种函数问题、预言问题、采样任务和优化问题。还解决了目前部署在现实世界环境中的深度学习模型可用的防御机制。这些防御机制中使用的学习理论涉及对抗性深度学习算法及其应用的数据表示、特征操作、错误分类代价、敏感性景观、分布鲁棒性和复杂性类。

最后,提出了面向弹性学习系统设计的对抗深度学习应用的未来研究方向,并回顾了针对人工智能应用的攻击面和鲁棒性的形式化学习假设,以解构当代对抗深度学习设计。鉴于其范围,本书将对对抗性机器学习从业者和对抗性人工智能研究人员感兴趣,他们的工作涉及对抗性深度学习的设计和应用。 https://link.springer.com/book/10.1007/978-3-030-99772-4

成为VIP会员查看完整内容
50

相关内容

书籍在狭义上的理解是带有文字和图像的纸张的集合。广义的书则是一切传播信息的媒体。
计算机视觉对抗攻击综述论文,35页pdf456篇文献
专知会员服务
63+阅读 · 2021年9月4日
【2021新书】深度学习计算机视觉,320页pdf
专知会员服务
191+阅读 · 2021年5月20日
专知会员服务
63+阅读 · 2021年1月10日
专知会员服务
64+阅读 · 2020年9月10日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月5日
Arxiv
0+阅读 · 2023年5月4日
Arxiv
12+阅读 · 2022年4月12日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
计算机视觉对抗攻击综述论文,35页pdf456篇文献
专知会员服务
63+阅读 · 2021年9月4日
【2021新书】深度学习计算机视觉,320页pdf
专知会员服务
191+阅读 · 2021年5月20日
专知会员服务
63+阅读 · 2021年1月10日
专知会员服务
64+阅读 · 2020年9月10日
相关基金
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2023年5月5日
Arxiv
0+阅读 · 2023年5月4日
Arxiv
12+阅读 · 2022年4月12日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
22+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员