In federated learning (FL), data does not leave personal devices when they are jointly training a machine learning model. Instead, these devices share gradients, parameters, or other model updates, with a central party (e.g., a company) coordinating the training. Because data never "leaves" personal devices, FL is often presented as privacy-preserving. Yet, recently it was shown that this protection is but a thin facade, as even a passive, honest-but-curious attacker observing gradients can reconstruct data of individual users contributing to the protocol. In this work, we show a novel data reconstruction attack which allows an active and dishonest central party to efficiently extract user data from the received gradients. While prior work on data reconstruction in FL relies on solving computationally expensive optimization problems or on making easily detectable modifications to the shared model's architecture or parameters, in our attack the central party makes inconspicuous changes to the shared model's weights before sending them out to the users. We call the modified weights of our attack trap weights. Our active attacker is able to recover user data perfectly, i.e., with zero error, even when this data stems from the same class. Recovery comes with near-zero costs: the attack requires no complex optimization objectives. Instead, our attacker exploits inherent data leakage from model gradients and simply amplifies this effect by maliciously altering the weights of the shared model through the trap weights. These specificities enable our attack to scale to fully-connected and convolutional deep neural networks trained with large mini-batches of data. For example, for the high-dimensional vision dataset ImageNet, we perfectly reconstruct more than 50% of the training data points from mini-batches as large as 100 data points.


翻译:在联邦学习中,多个设备共同训练机器学习模型时,数据并不离开设备。相反,这些设备共享梯度、参数或其他模型更新,并由一个中央方(如公司)协调训练过程。由于数据从未“离开”设备,因此联邦学习通常被认为具有隐私保护功能。然而,最近的研究表明,这种保护只是一个薄弱的幌子。即使是一个被动、诚实但好奇的攻击者观察梯度,也能够重构参与协议的个人用户的数据。在本文中,我们展示了一种新型的数据重构攻击,允许一个活跃且不诚实的中央方从接收到的梯度中有效地提取用户数据。虽然联邦学习中的数据重构之前的工作依赖于求解计算复杂度昂贵的优化问题或对共享模型的架构或参数进行容易检测的修改,但在我们的攻击中,中央方在发送共享模型的权重之前对其进行了不引人注目的修改。我们称攻击中修改后的共享模型的权重为陷阱权重。我们的主动攻击者能够完美地恢复用户数据,即使这些数据来自相同的类别也是如此,并且几乎没有成本:攻击不需要复杂的优化目标。相反,我们的攻击者利用模型梯度的固有数据泄漏,并通过陷阱权重恶意地改变共享模型的权重来放大这种影响。这些特定性使我们的攻击可以扩展到使用大型小批量数据进行训练的全连接和卷积深度神经网络。例如,在高维视觉数据集ImageNet中,我们可以完美地从100个数据点的小批量中重构超过50%的训练数据点。

1
下载
关闭预览

相关内容

移动边缘网络中联邦学习效率优化综述
专知会员服务
49+阅读 · 2022年7月9日
【ICML2022】Neurotoxin:联邦学习的持久后门
专知会员服务
18+阅读 · 2022年6月26日
专知会员服务
93+阅读 · 2021年7月23日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
89+阅读 · 2020年12月2日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
点击率预估中的自适应参数生成网络
机器学习与推荐算法
0+阅读 · 2022年9月20日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月29日
Arxiv
0+阅读 · 2023年5月28日
Arxiv
0+阅读 · 2023年5月28日
VIP会员
相关资讯
点击率预估中的自适应参数生成网络
机器学习与推荐算法
0+阅读 · 2022年9月20日
浅聊对比学习(Contrastive Learning)第一弹
PaperWeekly
0+阅读 · 2022年6月10日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员