To defend the inference attacks and mitigate the sensitive information leakages in Federated Learning (FL), client-level Differentially Private FL (DPFL) is the de-facto standard for privacy protection by clipping local updates and adding random noise. However, existing DPFL methods tend to make a sharp loss landscape and have poor weight perturbation robustness, resulting in severe performance degradation. To alleviate these issues, we propose a novel DPFL algorithm named DP-FedSAM, which leverages gradient perturbation to mitigate the negative impact of DP. Specifically, DP-FedSAM integrates Sharpness Aware Minimization (SAM) optimizer to generate local flatness models with improved stability and weight perturbation robustness, which results in the small norm of local updates and robustness to DP noise, thereby improving the performance. To further reduce the magnitude of random noise while achieving better performance, we propose DP-FedSAM-$top_k$ by adopting the local update sparsification technique. From the theoretical perspective, we present the convergence analysis to investigate how our algorithms mitigate the performance degradation induced by DP. Meanwhile, we give rigorous privacy guarantees with R\'enyi DP, the sensitivity analysis of local updates, and generalization analysis. At last, we empirically confirm that our algorithms achieve state-of-the-art (SOTA) performance compared with existing SOTA baselines in DPFL.


翻译:为了防御推断攻击并减少联邦学习中的敏感信息泄露,基于客户端差分隐私的联邦学习(DPFL)已成为隐私保护的事实标准,通过剪切局部更新和添加随机噪声来实现。然而,现有的DPFL方法往往会使损失函数变得尖锐,具有较差的权重扰动鲁棒性,从而导致性能严重降低。为了缓解这些问题,我们提出了一种新的DPFL算法:DP-FedSAM,该算法利用梯度扰动来减轻DP的负面影响。具体而言,DP-FedSAM将锐度感知最小化(SAM)优化器集成到联邦学习中,生成具有改进的稳定性和权重扰动鲁棒性的局部平坦模型,从而导致局部更新范数较小且对DP噪声 Robustness,从而提高性能。为了进一步减少随机噪声的幅度同时实现更好的性能,我们采用局部更新稀疏化技术提出DP-FedSAM-$top_k$。从理论上讲,我们提出了收敛分析,研究了我们的算法如何减轻DP引起的性能降低。同时,我们提供了R\'enyi DP的严格隐私保证,局部更新的敏感性分析和泛化分析。最后,我们经验证实,与现有的SOTA基线相比,我们的算法在DPFL中实现了最先进的性能。

0
下载
关闭预览

相关内容

《贝叶斯神经网络的联邦学习》2023最新73页论文
专知会员服务
59+阅读 · 2023年5月7日
【AAAI2023】对抗性权重扰动提高图神经网络的泛化能力
专知会员服务
18+阅读 · 2022年12月12日
专知会员服务
32+阅读 · 2021年2月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
专知会员服务
39+阅读 · 2020年12月1日
ICLR2019 图上的对抗攻击
图与推荐
17+阅读 · 2020年3月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关资讯
ICLR2019 图上的对抗攻击
图与推荐
17+阅读 · 2020年3月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
11+阅读 · 2018年3月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员