Heterogeneous Federated Learning (HFL) has gained significant attention for its capacity to handle both model and data heterogeneity across clients. Prototype-based HFL methods emerge as a promising solution to address statistical and model heterogeneity as well as privacy challenges, paving the way for new advancements in HFL research. This method focuses on sharing class-representative prototypes among heterogeneous clients. However, aggregating these prototypes via standard weighted averaging often yields sub-optimal global knowledge. Specifically, the averaging approach induces a shrinking of the aggregated prototypes' decision margins, thereby degrading model performance in scenarios with model heterogeneity and non-IID data distributions. The propose FedProtoKD in a Heterogeneous Federated Learning setting, utilizing an enhanced dual-knowledge distillation mechanism to enhance system performance by leveraging clients' logits and prototype feature representations. The proposed framework aims to resolve the prototype margin-shrinking problem using a contrastive learning-based trainable server prototype by leveraging a class-wise adaptive prototype margin. Furthermore, the framework assess the importance of public samples using the closeness of the sample's prototype to its class representative prototypes, which enhances learning performance. FedProtoKD improved test accuracy by an average of 1.13% and up to 34.13% across various settings, significantly outperforming existing state-of-the-art HFL methods.


翻译:异构联邦学习因其处理客户端间模型与数据异质性的能力而受到广泛关注。基于原型的异构联邦学习方法成为应对统计与模型异质性以及隐私挑战的有效方案,为异构联邦学习研究开辟了新的进展路径。该方法侧重于在异构客户端间共享类别代表性原型。然而,通过标准加权平均聚合这些原型往往导致次优的全局知识。具体而言,平均方法会引发聚合原型决策边界的收缩,从而在模型异质性与非独立同分布数据场景下降低模型性能。本文提出在异构联邦学习环境中应用FedProtoKD框架,利用增强的双重知识蒸馏机制,通过整合客户端的逻辑输出与原型特征表示来提升系统性能。该框架旨在通过基于类别的自适应原型边界,利用基于对比学习的可训练服务器原型解决原型边界收缩问题。此外,框架通过评估样本原型与其类别代表性原型的接近程度来衡量公共样本的重要性,从而提升学习性能。FedProtoKD在多种实验设置下平均提升测试准确率1.13%,最高提升达34.13%,显著优于现有最先进的异构联邦学习方法。

0
下载
关闭预览

相关内容

国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员