Training deep neural networks via federated learning allows clients to share the model updated on their data, instead of the original data. In practice, it is shown that a client's private information, unrelated to the main learning task, can be discovered from the shared model, which compromises the promised privacy protection. However, there is still no formal approach for quantifying the leakage of such latent information from the shared model/gradients. As a solution, we introduce and evaluate two mathematically-grounded metrics for better characterizing the amount of information included in the shared gradients computed on the clients' private data. First, using an adaptation of the empirical $\mathcal{V}$-information, we show how to quantify the amount of private latent information captured in gradients that are usable for an attacker. Second, based on a sensitivity analysis}using Jacobian matrices, we show how to measure changes in the gradients with respect to latent information. Further, we show the applicability of our proposed metrics in (i) localizing private latent information in a layer-wise manner, in both settings where we have or we do not have the knowledge of the attackers' capability, and (ii) comparing the capacity of each layer in a neural network in capturing higher-level versus lower-level latent information. Experimental results on three real-world datasets using three benchmark models show the validity of the proposed metrics.


翻译:通过联合会式学习进行深层培训神经网络,使客户能够分享其数据更新的模型,而不是原始数据。在实践中,显示客户的私人信息与主要学习任务无关,可以从共享模型中发现,这有损于所承诺的隐私保护;然而,目前还没有正式的方法来量化共享模型/梯度中此类潜在信息渗漏。作为一种解决办法,我们引入和评估两个数学基础的衡量标准,以便更好地说明根据客户私人数据计算的共同梯度中所含信息的数量。首先,利用经验$mathcal{V}信息,我们展示如何量化用于攻击者的梯度中采集的私人潜在信息数量。第二,根据敏感性分析,我们使用雅各布矩阵,展示如何衡量与隐性信息有关的梯度变化。此外,我们展示了我们所提议的衡量标准的适用性,在(一) 以层方式将私人潜在信息本地化,在两种环境中,我们没有或我们没有使用攻击者网络的三个水平的真实性水平,在三个水平上,在实验性水平上,对比每个水平上,对攻击者基准度能力水平上的真实性水平上的数据。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
如何构建你的推荐系统?这份21页ppt教程为你讲解
专知会员服务
64+阅读 · 2021年2月12日
迁移学习简明教程,11页ppt
专知会员服务
106+阅读 · 2020年8月4日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
已删除
将门创投
6+阅读 · 2019年9月3日
CCF推荐 | 国际会议信息10条
Call4Papers
7+阅读 · 2019年5月27日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年3月13日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
VIP会员
相关VIP内容
如何构建你的推荐系统?这份21页ppt教程为你讲解
专知会员服务
64+阅读 · 2021年2月12日
迁移学习简明教程,11页ppt
专知会员服务
106+阅读 · 2020年8月4日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
相关资讯
已删除
将门创投
6+阅读 · 2019年9月3日
CCF推荐 | 国际会议信息10条
Call4Papers
7+阅读 · 2019年5月27日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员