Federated Distillation (FD) is a popular novel algorithmic paradigm for Federated Learning, which achieves training performance competitive to prior parameter averaging based methods, while additionally allowing the clients to train different model architectures, by distilling the client predictions on an unlabeled auxiliary set of data into a student model. In this work we propose FedAUX, an extension to FD, which, under the same set of assumptions, drastically improves performance by deriving maximum utility from the unlabeled auxiliary data. FedAUX modifies the FD training procedure in two ways: First, unsupervised pre-training on the auxiliary data is performed to find a model initialization for the distributed training. Second, $(\varepsilon, \delta)$-differentially private certainty scoring is used to weight the ensemble predictions on the auxiliary data according to the certainty of each client model. Experiments on large-scale convolutional neural networks and transformer models demonstrate, that the training performance of FedAUX exceeds SOTA FL baseline methods by a substantial margin in both the iid and non-iid regime, further closing the gap to centralized training performance. Code is available at github.com/fedl-repo/fedaux.


翻译:联邦蒸馏法(FD)是联邦学习的流行的新式算法范例,它通过将客户对未贴标签的辅助数据集的预测提炼成学生模型,使培训业绩具有竞争力,达到以前以平均法为基础的参数,同时允许客户对不同的模型结构进行培训,将客户对未贴标签的辅助数据集的预测提炼成学生模型。在这项工作中,我们提议FedAUX(FedAUX)作为FD的延伸,根据同一套假设,从无标签的辅助数据中获取最大效用,大大提高了业绩。FedAUX对FD培训程序的修改有两种方式:第一,对辅助数据进行未经监督的预培训,以找到分配培训的初始化模型。第二,用$(\ varepsilon,\delta) 美元(data) 私人不同程度的确定性评分,以根据每个客户模型的确定性来权衡辅助数据的共同预测。对大规模革命神经网络和变压模型的实验表明,FADAX的培训业绩大大超过SATA FL基线方法,在iqual-commodeal-deal-deal demodeal-dection-deal-deal-demodection-deal-deal-demodeal-dection-dection-dection-dection-dection-demodection-dection-deal-dection-dection-

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
41+阅读 · 2020年7月27日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Minimax Active Learning
Arxiv
0+阅读 · 2021年3月30日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
1+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2021年2月15日
Arxiv
14+阅读 · 2019年9月11日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Minimax Active Learning
Arxiv
0+阅读 · 2021年3月30日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
1+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2021年2月15日
Arxiv
14+阅读 · 2019年9月11日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员