Although federated learning improves privacy of training data by exchanging local gradients or parameters rather than raw data, the adversary still can leverage local gradients and parameters to obtain local training data by launching reconstruction and membership inference attacks. To defend such privacy attacks, many noises perturbation methods (like differential privacy or CountSketch matrix) have been widely designed. However, the strong defence ability and high learning accuracy of these schemes cannot be ensured at the same time, which will impede the wide application of FL in practice (especially for medical or financial institutions that require both high accuracy and strong privacy guarantee). To overcome this issue, in this paper, we propose \emph{an efficient model perturbation method for federated learning} to defend reconstruction and membership inference attacks launched by curious clients. On the one hand, similar to the differential privacy, our method also selects random numbers as perturbed noises added to the global model parameters, and thus it is very efficient and easy to be integrated in practice. Meanwhile, the random selected noises are positive real numbers and the corresponding value can be arbitrarily large, and thus the strong defence ability can be ensured. On the other hand, unlike differential privacy or other perturbation methods that cannot eliminate the added noises, our method allows the server to recover the true gradients by eliminating the added noises. Therefore, our method does not hinder learning accuracy at all.


翻译:虽然联盟学习通过交换当地梯度或参数而不是原始数据,改善了培训数据的隐私性,但对手仍然能够利用当地梯度和参数,通过发起重建和成员推论攻击来获取当地培训数据。为了保护这种隐私攻击,已经广泛设计了许多噪音扰动方法(如差异隐私或伯爵史克茨矩阵),但是,不能同时确保这些计划的强大防御能力和高学习精确度,这将妨碍FL的广泛应用(特别是对于需要高准确度和强度隐私保障的医疗或金融机构而言)。为了克服这一问题,我们在本文件中提议采用\emph{联邦学习的有效模型渗透方法 } 来保护重建和好奇客户发动的成员攻击。 一方面,与差异隐私相似,我们的方法还选择随机数字作为全球模型参数添加的扰动噪音,从而非常高效和容易在实践中整合。 同时,随机选择的噪音是真实数字,相应的价值可以是任意的,而不是任意的,因此,我们建议采用高效的防御方法来捍卫重建和推断成员攻击能力。 一方面,与不同的是,我们所采用的精确度方法不能确保采用其他的回收方法。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月13日
Arxiv
0+阅读 · 2021年10月12日
Arxiv
0+阅读 · 2021年10月11日
Arxiv
0+阅读 · 2021年10月8日
Arxiv
7+阅读 · 2021年4月30日
VIP会员
相关VIP内容
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员