中科院信工所发布《深度学习系统的隐私与安全》综述论文,187篇文献总结

2019 年 12 月 5 日 专知

【导读】在过去的几年里,深度学习取得了巨大的成功,无论是从政策支持还是科研和工业应用,都是一片欣欣向荣。然而,近期的许多研究发现,深度学习拥有许多固有的弱点,这些弱点甚至可以危害深度学习系统的拥有者和使用者的安全和隐私。深度学习的广泛使用进一步放大了这一切所造成的后果。为了揭示深度学习的一些安全弱点,协助建立健全深度学习系统,来自中科院信息工程所和中国科学院大学网络安全学院的研究人员,全面的调查了针对深度学习的攻击方式,并对这些手段进行了多角度的研究



内容简介


深度学习取得了巨大的成功,成为人工智能最重要的驱动力。它支持多个领域,包括图像分类、语音识别、自然语言处理和恶意软件检测。由于计算能力的巨大进步和数据量的急剧增加,与传统技术相比,深度学习在这些场景中显示出了更大的潜力。深度学习擅长特征学习,加深对一个对象的理解,具有无与伦比的预测能力。在图像识别中,卷积神经网络(convolutional neural networks, CNNs)可以为我们对不同的未知图像进行分类,有些甚至比人类的分类性能更好。在自然语言处理中,递归神经网络(RNNs)或长短时记忆网络(LSTMs)可以帮助我们翻译和总结文本信息。自动驾驶、语音识别、恶意软件检测等领域都广泛应用了深度学习。近年来,物联网和智能家居系统也应运而生。因此,我们正步入智能时代。


然而,我们周围的基于深度学习的智能系统正面临着许多安全问题。机器学习模型可以通过api来窃取[160]。智能语音系统可以执行意想不到的命令[182]。3d打印对象可以骗过现实世界的图像分类器[20]。此外,为了确保安全,自动驾驶等技术在广泛应用之前需要大量的安全测试[157][185]。在过去的几年里,深度学习的安全性引起了许多相关研究者和实践者的关注。他们正在探索和研究针对深度学习系统的潜在攻击以及相应的防御技术。Szegedy等人[154]探索了神经网络的稳定性,揭示了神经网络在难以察觉的扰动面前的脆弱特性。从那以后,对抗性攻击迅速发展成为人工智能和安全领域的一个热门术语。许多努力都致力于披露漏洞在不同深度学习模型(例如,CNN [129] [114] [113], LSTM[54][39][131],强化学习(RL)[74],生成对抗网络(GAN)[91][138]),同时测试深度学习系统的安全性和健壮性[90][106][124][153][62][177]。另一方面,深度学习系统的广泛商业部署引起了对专有资产保护的兴趣,如训练数据[117][134][186][11]和模型参数[84][96][72][88]。它引发了一场战争,在这场战争中,隐私猎手利用商业间谍从竞争对手那里收集隐私,而相应的防御者则采取广泛的措施来抵御攻击。


为了全面了解深度学习中的隐私和安全问题,我们对相关文献和系统进行了广泛的调查。总共有137种出版物被研究,它们跨越了四个主要领域:图像分类、语音识别、神经语言处理和恶意软件检测。由于全面调查几乎是不可能的,所以我们选择了过去五年里更具代表性的研究。总的来说,我们将这些攻击分为四类:模型提取攻击、模型反转攻击、数据中毒攻击和对抗性攻击。特别是,模型提取和反演攻击针对的是隐私(参看第4、5节),而数据毒害和对抗性攻击可以通过降低深度学习模型的形成或制造可以欺骗模型的难以察觉的扰动来影响预测结果(参看第6、7节)。

图1显示了过去5年关于这些攻击的出版物。相关出版物数量在过去5年大幅增长,2017年增长100%,2018年增长61.5%。对抗性攻击显然是最有趣的研究,占据了研究人员46%的注意力。值得一提的是,最近人们对模型反转攻击的兴趣越来越大,这主要归功于对训练数据的费力处理(更多的讨论可以在第8节中找到)。


在本研究中,我们首先介绍了深度学习的背景,并总结了相关风险以及面向公众部署的商用深度学习系统。针对每种类型的攻击,系统地研究其能力、工作流程和攻击目标。更具体地说,如果一个攻击者面对一个商业的深度学习系统,它可以采取什么行动来达到目的。在所研究的方法中,系统是如何一步步被破坏的,以及什么会对用户和系统所有者产生影响。此外,我们还开发了一些度量标准来评估这些方法,如减少查询策略、恢复训练数据的精度和使用扰动图像的距离。在定量和定性分析的基础上,我们得出了许多见解,包括具体攻击技术的流行程度、这些方法的优缺点、未来的发展趋势等。


部分文章


论文地址:

https://arxiv.org/abs/1911.12562v1

https://www.zhuanzhi.ai/paper/fc7f1fe96e61491594fe5c30bbfa98d5


关注专知公众号(点击上方蓝色 专知 关注
  • 后台回复“TPSD” 就可以获取综述全文的下载链接索引~ 

-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加), 获取专知VIP会员码 加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册成为专知会员,查看5000+AI主题知识资料
登录查看更多
1

相关内容

中国科学院信息工程研究所是2011年批准成立的中国科学院直属科研机构。研究所按照“软硬兼修,矛盾兼容,开合有法,张弛有度”的办所方针,秉承“打造一流平台,集聚一流人才,支撑国家需求,引领学科发展,努力成为国家在信息工程领域的战略科技力量”的组织目标,面向国家战略需求,在信息安全科技领域,开展基础理论与前沿技术研究,开发应用性技术与系统,为国家信息化进程提供核心关键技术支撑与系统解决方案。 官网地址:http://www.iie.ac.cn/
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
最新《智能交通系统的深度强化学习》综述论文,22页pdf
【中科院信工所】视听觉深度伪造检测技术研究综述
专知会员服务
40+阅读 · 2020年4月15日
专知会员服务
199+阅读 · 2020年3月6日
安全和健壮的医疗机器学习综述,附22页pdf
专知会员服务
46+阅读 · 2020年1月25日
【文献综述】边缘计算与深度学习的融合综述论文
专知会员服务
165+阅读 · 2019年12月26日
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
【机器学习】机器学习:未来十年研究热点
产业智能官
16+阅读 · 2018年11月4日
知识图谱中的深度学习技术应用概述
深度学习与NLP
11+阅读 · 2018年9月13日
收藏 | 就喜欢看综述论文:情感分析中的深度学习
黑龙江大学自然语言处理实验室
3+阅读 · 2018年2月1日
就喜欢看综述论文:情感分析中的深度学习
机器之心
13+阅读 · 2018年1月26日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Generative Adversarial Networks: A Survey and Taxonomy
Deep Learning for Energy Markets
Arxiv
10+阅读 · 2019年4月10日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
5+阅读 · 2017年4月12日
VIP会员
相关论文
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Generative Adversarial Networks: A Survey and Taxonomy
Deep Learning for Energy Markets
Arxiv
10+阅读 · 2019年4月10日
Arxiv
53+阅读 · 2018年12月11日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
5+阅读 · 2017年4月12日
Top
微信扫码咨询专知VIP会员