Data heterogeneity is a significant challenge in modern federated learning (FL) as it creates variance in local model updates, causing the aggregated global model to shift away from the true global optimum. Partial client participation in FL further exacerbates this issue by skewing the aggregation of local models towards the data distribution of participating clients. This creates additional variance in the global model updates, causing the global model to converge away from the optima of the global objective. These variances lead to instability in FL training, which degrades global model performance and slows down FL training. While existing literature primarily focuses on addressing data heterogeneity, the impact of partial client participation has received less attention. In this paper, we propose FedDPC, a novel FL method, designed to improve FL training and global model performance by mitigating both data heterogeneity and partial client participation. FedDPC addresses these issues by projecting each local update onto the previous global update, thereby controlling variance in both local and global updates. To further accelerate FL training, FedDPC employs adaptive scaling for each local update before aggregation. Extensive experiments on image classification tasks with multiple heterogeneously partitioned datasets validate the effectiveness of FedDPC. The results demonstrate that FedDPC outperforms state-of-the-art FL algorithms by achieving faster reduction in training loss and improved test accuracy across communication rounds.


翻译:数据异构性是现代联邦学习(FL)中的一个重要挑战,因为它会导致本地模型更新的方差增大,从而使聚合后的全局模型偏离真实的全局最优解。联邦学习中的部分客户端参与进一步加剧了这一问题,因为局部模型的聚合会偏向于参与客户端的数据分布。这导致全局模型更新产生额外的方差,使得全局模型收敛于全局目标的最优解之外。这些方差会导致联邦学习训练过程不稳定,从而降低全局模型的性能并减缓训练速度。现有研究主要集中于解决数据异构性问题,而部分客户端参与的影响尚未得到充分关注。本文提出了一种新颖的联邦学习方法FedDPC,旨在通过同时缓解数据异构性和部分客户端参与问题来提升联邦学习训练效率和全局模型性能。FedDPC通过将每个本地更新投影到先前的全局更新上,从而控制本地和全局更新的方差。为了进一步加速联邦学习训练,FedDPC在聚合前对每个本地更新采用自适应缩放策略。通过在多个异构划分的数据集上进行图像分类任务的广泛实验,验证了FedDPC的有效性。实验结果表明,FedDPC在训练损失的快速降低和跨通信轮次的测试准确率提升方面均优于当前最先进的联邦学习算法。

0
下载
关闭预览

相关内容

【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员