Today data is often scattered among billions of resource-constrained edge devices with security and privacy constraints. Federated Learning (FL) has emerged as a viable solution to learn a global model while keeping data private, but the model complexity of FL is impeded by the computation resources of edge nodes. In this work, we investigate a novel paradigm to take advantage of a powerful server model to break through model capacity in FL. By selectively learning from multiple teacher clients and itself, a server model develops in-depth knowledge and transfers its knowledge back to clients in return to boost their respective performance. Our proposed framework achieves superior performance on both server and client models and provides several advantages in a unified framework, including flexibility for heterogeneous client architectures, robustness to poisoning attacks, and communication efficiency between clients and server. By bridging FL effectively with larger server model training, our proposed paradigm paves ways for robust and continual knowledge accumulation from distributed and private data.


翻译:今天的数据往往分散在数十亿个资源受限制的边缘装置中,并带有安全和隐私限制; 联邦学习(FL)已成为在保持数据私密的同时学习全球模型的可行解决办法,但FL的模式复杂性受到边缘节点计算资源的阻碍; 在这项工作中,我们调查了一种新的模式,利用强大的服务器模型打破FL的模型能力。 通过有选择地向多个教师客户和自身学习,服务器模型发展了深入的知识,并将其知识传授给客户,从而提升他们各自的业绩; 我们的拟议框架在服务器和客户模式上都取得了优异的绩效,并在一个统一的框架中提供了若干优势,包括不同客户结构的灵活性、对中毒袭击的稳健性以及客户与服务器之间的通信效率。 通过将FL与更大的服务器模型培训有效地连接起来,我们拟议的模式为从分布式和私人数据中可靠和持续积累知识铺平了道路。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
已删除
将门创投
4+阅读 · 2019年11月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Arxiv
0+阅读 · 2021年12月15日
Arxiv
10+阅读 · 2021年3月30日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年11月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Top
微信扫码咨询专知VIP会员