Fairness and robustness are two important concerns for federated learning systems. In this work, we identify that robustness to data and model poisoning attacks and fairness, measured as the uniformity of performance across devices, are competing constraints in statistically heterogeneous networks. To address these constraints, we propose employing a simple, general framework for personalized federated learning, Ditto, that can inherently provide fairness and robustness benefits, and develop a scalable solver for it. Theoretically, we analyze the ability of Ditto to achieve fairness and robustness simultaneously on a class of linear problems. Empirically, across a suite of federated datasets, we show that Ditto not only achieves competitive performance relative to recent personalization methods, but also enables more accurate, robust, and fair models relative to state-of-the-art fair or robust baselines.


翻译:公平性和稳健性是联邦学习系统的两个重要问题。 在这项工作中,我们发现,数据及模型中毒攻击和公平性强健性(以各种装置的性能统一衡量)是统计多样性网络中相互竞争的制约因素。 为了解决这些制约因素,我们提议为个人化的联邦学习(Ditto)建立一个简单、一般的框架,这个框架可以内在地提供公平和稳健性的好处,并为它开发一个可伸缩的解决方案。理论上,我们分析了Ditto在一系列线性问题上同时实现公平和稳健的能力。 在一个联邦数据集中,我们经常地表明,Ditto不仅能够实现与最近的个性化方法相比的竞争性业绩,而且还能够实现与最先进的公平或稳健的基线相比的更准确、稳健和公正的模型。

1
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Arxiv
1+阅读 · 2021年8月17日
Arxiv
1+阅读 · 2021年8月16日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
3+阅读 · 2020年5月1日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
相关论文
Arxiv
1+阅读 · 2021年8月17日
Arxiv
1+阅读 · 2021年8月16日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
3+阅读 · 2020年5月1日
Top
微信扫码咨询专知VIP会员