The Expectation Maximization (EM) algorithm is the default algorithm for inference in latent variable models. As in any other field of machine learning, applications of latent variable models to very large datasets make the use of advanced parallel and distributed architectures mandatory. This paper introduces FedEM, which is the first extension of the EM algorithm to the federated learning context. FedEM is a new communication efficient method, which handles partial participation of local devices, and is robust to heterogeneous distributions of the datasets. To alleviate the communication bottleneck, FedEM compresses appropriately defined complete data sufficient statistics. We also develop and analyze an extension of FedEM to further incorporate a variance reduction scheme. In all cases, we derive finite-time complexity bounds for smooth non-convex problems. Numerical results are presented to support our theoretical findings, as well as an application to federated missing values imputation for biodiversity monitoring.


翻译:期望最大化算法是潜在变量模型中推断的默认算法。 与机器学习的其他任何领域一样, 将潜伏变量模型应用到非常大的数据集中, 强制使用先进的平行和分布式结构。 本文介绍了FedEM, 这是EM算法的第一个延伸到联合学习环境。 FedEM是一种新的通信高效方法, 处理局部设备的部分参与, 并且对数据集的不同分布十分活跃。 为了减轻通信瓶颈, FedEM 压缩 适当定义了完整的数据充足统计数据。 我们还开发并分析FedEM 的扩展, 以进一步纳入差异减少计划。 在所有情况下, 我们为平滑的非convex问题绘制了时段复杂界限 。 数字结果用于支持我们的理论发现, 以及用于对生物多样性监测的粘合缺失值估算的应用 。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年5月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
已删除
将门创投
8+阅读 · 2019年6月13日
CCF推荐 | 国际会议信息10条
Call4Papers
8+阅读 · 2019年5月27日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年6月13日
CCF推荐 | 国际会议信息10条
Call4Papers
8+阅读 · 2019年5月27日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员