Federated learning has received great attention for its capability to train a large-scale model in a decentralized manner without needing to access user data directly. It helps protect the users' private data from centralized collecting. Unlike distributed machine learning, federated learning aims to tackle non-IID data from heterogeneous sources in various real-world applications, such as those on smartphones. Existing federated learning approaches usually adopt a single global model to capture the shared knowledge of all users by aggregating their gradients, regardless of the discrepancy between their data distributions. However, due to the diverse nature of user behaviors, assigning users' gradients to different global models (i.e., centers) can better capture the heterogeneity of data distributions across users. Our paper proposes a novel multi-center aggregation mechanism for federated learning, which learns multiple global models from the non-IID user data and simultaneously derives the optimal matching between users and centers. We formulate the problem as a joint optimization that can be efficiently solved by a stochastic expectation maximization (EM) algorithm. Our experimental results on benchmark datasets show that our method outperforms several popular federated learning methods.


翻译:联邦学习因其在无需直接获取用户数据的情况下以分散方式培训大规模模型的能力而得到极大关注。它有助于保护用户的私人数据不被集中收集。与分布式机器学习不同,联邦学习的目的是解决各种现实世界应用,如智能手机应用中不同来源的非IID数据问题。现有的联邦学习方法通常采用单一的全球模型,通过汇总所有用户的梯度来获取共享知识,而不论其数据分布差异如何。然而,由于用户行为的多样性,将用户的梯度分配给不同的全球模型(即中心)可以更好地捕捉到用户之间数据分布的异质性。我们的论文建议采用新的多中心汇总机制进行联邦化学习,从非IID用户数据中学习多个全球模型,同时获得用户和中心之间的最佳匹配。我们把这个问题当作一种联合优化,通过随机预期最大化(EM)的算法可以有效解决。我们在基准数据集上的实验结果显示,我们的方法超越了几种大众联合学习方法。

1
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
144+阅读 · 2019年10月27日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
材料科学与工程
6+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年12月7日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
4+阅读 · 2021年1月14日
Asymmetrical Vertical Federated Learning
Arxiv
3+阅读 · 2020年6月11日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
材料科学与工程
6+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
相关论文
Arxiv
0+阅读 · 2021年12月7日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
4+阅读 · 2021年1月14日
Asymmetrical Vertical Federated Learning
Arxiv
3+阅读 · 2020年6月11日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Top
微信扫码咨询专知VIP会员