Arxiv'21 | Graph Federated Learning

2021 年 11 月 17 日 图与推荐


前言


在一般联邦学习框架中,训练过程包括中央服务器和本地客户端多个 epoch 的数据通信,在处理敏感数据时可能存在隐私泄露问题,因此,有必要对算法进行私有化。此外该架构对服务器上的通信故障和计算过载非常敏感。

本文提出 graph federated learning(GFL)来解决传统 FL 中一个服务器来进行所有通信和聚合所导致的鲁棒性问题。GFL 由几个服务器组成,每个服务器都与自己的客户端子集相连。服务器之间的连接由图结构来表示。具体来说使用密码学和差分隐私的概念,将联邦学习算法私有化,并将其扩展到图结构中。本文研究了私有化对算法性能的影响,私有化可以被建模为加性噪声并表明在凸性和 Lipschitz 条件下,私有化过程与非私有化算法的性能相近。


1. Problem setup

在 GFL 算法框架下包含 个服务器,每个服务器与 个本地客户端集合相连,服务器之间的 通信拓扑可以表示为一个组合矩阵 ,其中每一个元素表示为 ,算法的目标函 数为最小化平均经验风险:

其中每一项的经验风险 可以以损失函数的形式进行表示 :

其中 对应于服务器, 对应于客户端, 对应于数据。每个服务器与它客户端集合使用 FedAvg 机制进行本地训练和训练结果的聚合,然后服务器之间运行一个共识类型算法。当每个本 地客户端在向服务器发送最终更新之前经过不同的 epoch,所产生的增量误差在 的数量 级上,并且由梯度噪声所主导。因此简化问题,假设集合 中的 个采样客户在每次迭代中 运行一次 SGD。形式化表示为,在第 次迭代,每个客户端 更新在服务器的权重参数 。进而将更新后的结果发送给给服务器

其中 表示由客户端 在第 个 epoch 中所采样的 mini-batch,其所属于服务器 并 且采样大小为 。基于此相邻的服务器之间相互交流收到的更新信息:

最后得到更新后的模型权重:


为了给算法引入隐私保护,在每轮通信期间发送的更新可以被一些噪音所干扰。在第 次迭代, 设 为服务器 所添加的发送给服务器端 的噪音, 为由客户端 所添加的发 送给服务器端 的在第 次迭代的噪音。上述过程可总结为:

  1. 客户端更新本地模型权重过程,式 (6)
  2. 服务器聚合客户端权重发送结果过程,式 (7)
  3. 服务器间通信组合权重过程,式 (8)

此外,如果使用 SMC(秘密共享),可以通过一个可逆函数 对协议进行建模,将本地更新 映射到加密的版本。在服务器聚合式 (7) 和服务器组合式 (8) 步骤中,分别用 代替



2. Analysis(略)

凸优化及隐私分析(详情可见 III. PERFORMANCE ANALYSIS、IV. PRIVACY ANALYSIS)

3. Experiments

将本文所提出的私有方法与使用标准扰动的标准私有算法,以及非私有算法进行比较:


登录查看更多
0

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
专知会员服务
19+阅读 · 2021年9月12日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
ArXiv2021 | Customized Graph Neural Networks
图与推荐
1+阅读 · 2021年12月27日
GNN + Transformer = GraphFormers
图与推荐
6+阅读 · 2021年11月24日
NeuralPS'20 | Graph Meta Learning via Local Subgraphs
图与推荐
3+阅读 · 2021年10月29日
OSDI'21 | P3: Distributed Deep Graph Learning at Scale
图与推荐
0+阅读 · 2021年9月10日
论文小综 | Attention in Graph Neural Networks
图与推荐
2+阅读 · 2021年5月10日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关资讯
ArXiv2021 | Customized Graph Neural Networks
图与推荐
1+阅读 · 2021年12月27日
GNN + Transformer = GraphFormers
图与推荐
6+阅读 · 2021年11月24日
NeuralPS'20 | Graph Meta Learning via Local Subgraphs
图与推荐
3+阅读 · 2021年10月29日
OSDI'21 | P3: Distributed Deep Graph Learning at Scale
图与推荐
0+阅读 · 2021年9月10日
论文小综 | Attention in Graph Neural Networks
图与推荐
2+阅读 · 2021年5月10日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员