我们考虑在分布在用户设备上的私有数据上建立训练模型。为了确保隐私,我们添加了设备上的噪声,并使用安全聚合,以便只向服务器显示噪声和。我们提出了一个全面的端到端系统,在执行安全聚合之前适当地离散数据并添加离散高斯噪声。我们提供了一种新的离散高斯和的隐私分析方法,并仔细分析了数据量化和模求和算法的影响。我们的理论保证强调了沟通、隐私和准确性之间的复杂张力。我们广泛的实验结果表明,我们的解决方案基本上能够以低于16位精度的每个值匹配中心差分隐私的精度。

https://arxiv.org/abs/2102.06387

成为VIP会员查看完整内容
22

相关内容

专知会员服务
15+阅读 · 2021年8月29日
专知会员服务
15+阅读 · 2021年7月21日
专知会员服务
12+阅读 · 2021年6月20日
专知会员服务
27+阅读 · 2021年2月2日
专知会员服务
42+阅读 · 2021年1月18日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
35+阅读 · 2020年6月3日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
Arxiv
7+阅读 · 2021年4月30日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年8月29日
专知会员服务
15+阅读 · 2021年7月21日
专知会员服务
12+阅读 · 2021年6月20日
专知会员服务
27+阅读 · 2021年2月2日
专知会员服务
42+阅读 · 2021年1月18日
相关资讯
微信扫码咨询专知VIP会员