【CVPR2023】基于强化学习的黑盒模型反演攻击

2023 年 4 月 12 日 专知

模型反演攻击是一种隐私攻击,它仅通过访问模型来重构用于训练机器学习模型的私有数据。近年来,利用生成对抗网络(Generative Adversarial Networks, GANs)从公共数据集中提取知识的白盒模型反演攻击因其出色的攻击性能而受到广泛关注。另一方面,目前利用GANs的黑盒模型反演攻击存在一些问题,例如无法保证在预定数量的查询访问内完成攻击过程,或实现与白盒攻击相同的性能水平。为克服这些限制,本文提出一种基于强化学习的黑盒模型反演攻击。本文将潜空间搜索表述为马尔可夫决策过程(MDP)问题,并使用强化学习来解决它。该方法利用生成图像的置信度分数为智能体提供奖励。最后,利用在MDP中训练的智能体找到的潜在向量来重构隐私数据。在多个数据集和模型上的实验结果表明,该攻击方法在取得最先进攻击性能的同时,成功地恢复了目标模型的隐私信息。本文通过提出一种更先进的黑盒模型反演攻击来强调隐私保护机器学习研究的重要性。

https://www.zhuanzhi.ai/paper/9ed3a5a3de3f2f121b1b49bffe5a7662

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复或发消息“RLBA” 就可以获取《【CVPR2023】基于强化学习的黑盒模型反演攻击》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
1

相关内容

CVPR2022 | 医学图像分析中基于频率注入的后门攻击
专知会员服务
7+阅读 · 2022年7月11日
【ICML2022】鲁棒强化学习的策略梯度法
专知会员服务
36+阅读 · 2022年5月21日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
15+阅读 · 2022年3月17日
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
21+阅读 · 2021年3月25日
【CMU博士论文Wen Sun】强化学习的泛化性与效率,206页pdf
专知会员服务
91+阅读 · 2020年9月28日
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
「扩散模型」Awesome资料最新大合集
专知
3+阅读 · 2022年10月10日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月29日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
16+阅读 · 2022年11月21日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2020年7月21日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2023年5月29日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
16+阅读 · 2022年11月21日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2020年7月21日
Top
微信扫码咨询专知VIP会员