Federated Learning (FL) is a machine learning paradigm that enables clients to jointly train a global model by aggregating the locally trained models without sharing any local training data. In practice, there can often be substantial heterogeneity (e.g., class imbalance) across the local data distributions observed by each of these clients. Under such non-iid label distributions across clients, FL suffers from the 'client-drift' problem where every client drifts to its own local optimum. This results in slower convergence and poor performance of the aggregated model. To address this limitation, we propose a novel regularization technique based on adaptive self-distillation (ASD) for training models on the client side. Our regularization scheme adaptively adjusts to each client's training data based on the global model's prediction entropy and the client-data label distribution. We show in this paper that our proposed regularization (ASD) can be easily integrated atop existing, state-of-the-art FL algorithms, leading to a further boost in the performance of these off-the-shelf methods. We theoretically explain how incorporation of ASD regularizer leads to reduction in client-drift and empirically justify the generalization ability of the trained model. We demonstrate the efficacy of our approach through extensive experiments on multiple real-world benchmarks and show substantial gains in performance when the proposed regularizer is combined with popular FL methods.


翻译:联邦学习(Federated Learning,FL)是一种机器学习范式,它使得客户端能够通过聚合本地训练的模型来联合训练一个全局模型,而无需共享任何本地训练数据。在实践中,不同客户端所观察到的本地数据分布往往存在显著的异构性(例如类别不平衡)。在这种客户端间非独立同分布(non-iid)的标签分布下,联邦学习会受到'客户端漂移'问题的困扰,即每个客户端都会漂移到其自身的局部最优解。这导致聚合模型的收敛速度变慢且性能不佳。为了解决这一局限,我们提出了一种基于自适应自蒸馏(Adaptive Self-Distillation,ASD)的新型正则化技术,用于在客户端侧训练模型。我们的正则化方案根据全局模型的预测熵和客户端数据的标签分布,自适应地调整每个客户端的训练数据。本文表明,我们提出的正则化方法(ASD)可以轻松地集成到现有的、最先进的联邦学习算法之上,从而进一步提升这些现成方法的性能。我们从理论上解释了ASD正则化器的引入如何减少客户端漂移,并通过实验验证了训练模型的泛化能力。我们在多个真实世界基准测试上进行了广泛的实验,证明了所提方法的有效性,并展示了当所提正则化器与流行的联邦学习方法结合时,性能获得了显著提升。

0
下载
关闭预览

相关内容

在数学,统计学和计算机科学中,尤其是在机器学习和逆问题中,正则化是添加信息以解决不适定问题或防止过度拟合的过程。 正则化适用于不适定的优化问题中的目标函数。
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
12+阅读 · 2021年10月23日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员