This paper proposes FedPOD, which ranked first in the 2024 Federated Tumor Segmentation (FeTS) Challenge, for optimizing learning efficiency and communication cost in federated learning among multiple clients. Inspired by FedPIDAvg, we define a round-wise task for FedPOD to enhance training efficiency. FedPIDAvg achieved performance improvement by incorporating the training loss reduction for prediction entropy as weights using differential terms. Furthermore, by modeling data distribution with a Poisson distribution and using a PID controller, it reduced communication costs even in skewed data distribution. However, excluding participants classified as outliers based on the Poisson distribution can limit data utilization. Additionally, PID controller requires the same participants to be maintained throughout the federated learning process as it uses previous rounds' learning information in the current round. In our approach, FedPOD addresses these issues by including participants excluded as outliers, eliminating dependency on previous rounds' learning information, and applying a method for calculating validation loss at each round. In this challenge, FedPOD presents comparable performance to FedPIDAvg in metrics of Dice score, 0.78, 0.71 and 0.72 for WT, ET and TC in average, and projected convergence score, 0.74 in average. Furthermore, the concept of FedPOD draws inspiration from Kubernetes' smallest computing unit, POD, designed to be compatible with Kubernetes auto-scaling. Extending round-wise tasks of FedPOD to POD units allows flexible design by applying scale-out similar to Kubernetes' auto-scaling. This work demonstrated the potentials of FedPOD to enhance federated learning by improving efficiency, flexibility, and performance in metrics.


翻译:本文提出FedPOD方法,该方法在2024年联邦肿瘤分割挑战赛中排名第一,旨在优化多客户端联邦学习中的学习效率与通信成本。受FedPIDAvg启发,我们为FedPOD定义了轮次任务以提升训练效率。FedPIDAvg通过将训练损失减少量作为预测熵的权重并结合微分项,实现了性能提升。此外,通过采用泊松分布建模数据分布并结合PID控制器,该方法即使在倾斜数据分布下也降低了通信成本。然而,基于泊松分布排除被归类为异常值的参与者会限制数据利用率。另外,PID控制器需在整个联邦学习过程中维持相同的参与者集合,因其在当前轮次中使用了历史轮次的学习信息。本方法中,FedPOD通过纳入被排除的异常值参与者、消除对历史轮次学习信息的依赖,并采用每轮验证损失计算策略,解决了上述问题。在本挑战赛中,FedPOD在Dice分数指标上表现出与FedPIDAvg相当的性能:WT、ET和TC的平均值分别为0.78、0.71和0.72;平均收敛分数为0.74。此外,FedPOD的设计理念借鉴了Kubernetes的最小计算单元POD,旨在兼容Kubernetes自动扩缩容机制。将FedPOD的轮次任务扩展至POD单元,可通过类似Kubernetes自动扩缩容的横向扩展方式实现灵活设计。本工作证明了FedPOD在提升联邦学习效率、灵活性和性能指标方面的潜力。

0
下载
关闭预览

相关内容

[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
17+阅读 · 2024年5月23日
【CVPR2023】带有噪声标签的孪生对比学习
专知会员服务
33+阅读 · 2023年3月16日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
33+阅读 · 2021年7月27日
专知会员服务
29+阅读 · 2020年10月2日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
17+阅读 · 2024年5月23日
【CVPR2023】带有噪声标签的孪生对比学习
专知会员服务
33+阅读 · 2023年3月16日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
33+阅读 · 2021年7月27日
专知会员服务
29+阅读 · 2020年10月2日
相关资讯
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员