Federated learning (FL) is a framework for users to jointly train a machine learning model. FL is promoted as a privacy-enhancing technology (PET) that provides data minimization: data never "leaves" personal devices and users share only model updates with a server (e.g., a company) coordinating the distributed training. While prior work showed that in vanilla FL a malicious server can extract users' private data from the model updates, in this work we take it further and demonstrate that a malicious server can reconstruct user data even in hardened versions of the protocol. More precisely, we propose an attack against FL protected with distributed differential privacy (DDP) and secure aggregation (SA). Our attack method is based on the introduction of sybil devices that deviate from the protocol to expose individual users' data for reconstruction by the server. The underlying root cause for the vulnerability to our attack is a power imbalance: the server orchestrates the whole protocol and users are given little guarantees about the selection of other users participating in the protocol. Moving forward, we discuss requirements for privacy guarantees in FL. We conclude that users should only participate in the protocol when they trust the server or they apply local primitives such as local DP, shifting power away from the server. Yet, the latter approaches come at significant overhead in terms of performance degradation of the trained model, making them less likely to be deployed in practice.


翻译:联邦学习(FL)是一种让用户共同训练机器学习模型的框架。FL被宣传为一种增强隐私的技术(PET),提供数据最小化:数据从不离开个人设备,用户只与协调分布式训练的服务器(例如公司)共享模型更新。虽然之前的研究表明,在普通FL中,恶意服务器可以从模型更新中提取用户的私人数据,但在本文中,我们更进一步,展示了一个恶意服务器可以重建受保护协议中的用户数据的攻击方法。更具体地说,我们针对分布式差分隐私(DDP)和安全聚合(SA)保护的FL提出了一种攻击方法。我们的攻击方法基于引入违反协议的Sybil设备,以暴露个别用户数据以供服务器重建。该漏洞的根本原因是权力不平衡:服务器协调整个协议,而用户很少得到其他参与协议的用户选择的保证。展望未来,我们讨论了FL隐私保证的要求。我们得出结论,只有在信任服务器或应用本地原语(例如本地差分隐私)的情况下,用户才应该参与协议,从而将权力转移给服务器。然而,后一种方法在训练模型的性能降低方面需要付出重大代价,使其不太可能在实践中得到应用。

0
下载
关闭预览

相关内容

【MIT博士论文】联邦学习实用方法,143页pdf
专知会员服务
65+阅读 · 2022年9月24日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月30日
Arxiv
0+阅读 · 2023年5月28日
Arxiv
0+阅读 · 2023年5月25日
Arxiv
14+阅读 · 2020年10月26日
VIP会员
相关VIP内容
【MIT博士论文】联邦学习实用方法,143页pdf
专知会员服务
65+阅读 · 2022年9月24日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员