深度学习已经彻底改变了人工智能应用,但也面临着一系列关键的安全挑战,包括对抗攻击、数据投毒、模型盗窃和隐私泄露。本文综述了这些漏洞,详细介绍了它们的机制及其对模型完整性和保密性的影响。探讨了包括对抗样本、标签翻转和后门攻击在内的实际攻击方式,并分析了如对抗训练、差分隐私和联邦学习等防御方法,阐明了它们的优缺点。此外,文章还介绍了对比学习和自监督学习等先进方法,用于增强模型的鲁棒性。最后,综述对未来的发展方向进行了展望,强调了自动化防御、零信任架构以及大规模AI模型的安全挑战。在此背景下,开发可靠的深度学习系统需要在性能和安全性之间找到平衡。https://www.zhuanzhi.ai/paper/d849ea56b2212133880006d061c7f9d5

成为VIP会员查看完整内容
26

相关内容

【2023新书】工业4.0中的人工智能和区块链, 333页pdf
专知会员服务
64+阅读 · 2023年9月18日
【2023新书】人工智能在网络安全中的应用,215页pdf
专知会员服务
102+阅读 · 2023年5月5日
【普林斯顿博士论文】深度学习安全性,275页pdf
专知会员服务
64+阅读 · 2023年2月9日
数据价值释放与隐私保护计算应用研究报告,64页pdf
专知会员服务
40+阅读 · 2021年11月29日
专知会员服务
92+阅读 · 2021年6月11日
麦克瑞大学最新「深度学习社区检测」综述论文,28页pdf
【2022新书】深度学习归一化技术,117页pdf
专知
24+阅读 · 2022年11月25日
《人工智能安全测评白皮书》,99页pdf
专知
33+阅读 · 2022年2月26日
基于深度学习的数据融合方法研究综述
专知
31+阅读 · 2020年12月10日
深度多模态表示学习综述论文,22页pdf
专知
31+阅读 · 2020年6月21日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
163+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2023年3月26日
Arxiv
153+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【2023新书】工业4.0中的人工智能和区块链, 333页pdf
专知会员服务
64+阅读 · 2023年9月18日
【2023新书】人工智能在网络安全中的应用,215页pdf
专知会员服务
102+阅读 · 2023年5月5日
【普林斯顿博士论文】深度学习安全性,275页pdf
专知会员服务
64+阅读 · 2023年2月9日
数据价值释放与隐私保护计算应用研究报告,64页pdf
专知会员服务
40+阅读 · 2021年11月29日
专知会员服务
92+阅读 · 2021年6月11日
麦克瑞大学最新「深度学习社区检测」综述论文,28页pdf
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员