深度神经网络已经显示出从图像和文本等数据中提取通用特征表示的能力,这对各种学习任务都很有用。在联邦设置中,表示学习的成果还没有完全实现。尽管联邦设置中的数据通常是非iid。在客户端,集中深度学习的成功表明,数据通常共享一个全局特征表示,而在客户端或任务之间的统计异质性集中在标签。基于这种直觉,我们提出了一种新的联合学习框架和算法来学习跨客户端共享的数据表示。我们的算法利用客户机之间的分布式计算能力,针对表示的每次更新的低维局部参数执行许多本地更新。我们证明了该方法在线性设置下获得了接近最优样本复杂度的ground-truth表示的线性收敛性,证明了该方法可以有效地降低每个客户端的问题维数。此外,我们提供了大量的实验结果,证明了我们的方法在异构环境下优于其他个性化联合学习方法。

https://arxiv.org/abs/2102.07078

成为VIP会员查看完整内容
14

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
专知会员服务
11+阅读 · 2021年9月10日
专知会员服务
19+阅读 · 2021年8月30日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年7月20日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
61+阅读 · 2021年6月11日
专知会员服务
26+阅读 · 2021年2月2日
专知会员服务
41+阅读 · 2021年1月18日
联邦学习简介
AINLP
5+阅读 · 2020年8月6日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
基于二进制哈希编码快速学习的快速图像检索
炼数成金订阅号
8+阅读 · 2018年5月17日
Arxiv
0+阅读 · 2021年9月20日
Arxiv
7+阅读 · 2021年7月5日
Arxiv
7+阅读 · 2020年8月7日
Arxiv
3+阅读 · 2020年2月12日
HaarPooling: Graph Pooling with Compressive Haar Basis
Graph-Based Recommendation System
Arxiv
4+阅读 · 2018年7月31日
VIP会员
相关VIP内容
专知会员服务
11+阅读 · 2021年9月10日
专知会员服务
19+阅读 · 2021年8月30日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
18+阅读 · 2021年7月20日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
61+阅读 · 2021年6月11日
专知会员服务
26+阅读 · 2021年2月2日
专知会员服务
41+阅读 · 2021年1月18日
微信扫码咨询专知VIP会员