Training deep neural networks via federated learning allows clients to share the model updated on their data, instead of the original data. In practice, it is shown that a client's private information, unrelated to the main learning task, can be discovered from the shared model, which compromises the promised privacy protection. However, there is still no formal approach for quantifying the leakage of such latent information from the shared model/gradients. As a solution, we introduce and evaluate two mathematically-grounded metrics for better characterizing the amount of information included in the shared gradients computed on the clients' private data. First, using an adaptation of the empirical $\mathcal{V}$-information, we show how to quantify the amount of private latent information captured in gradients that are usable for an attacker. Second, based on a sensitivity analysis}using Jacobian matrices, we show how to measure changes in the gradients with respect to latent information. Further, we show the applicability of our proposed metrics in (i) localizing private latent information in a layer-wise manner, in both settings where we have or we do not have the knowledge of the attackers' capability, and (ii) comparing the capacity of each layer in a neural network in capturing higher-level versus lower-level latent information. Experimental results on three real-world datasets using three benchmark models show the validity of the proposed metrics.


翻译:通过联合会式学习进行深层培训神经网络,使客户能够分享其数据更新的模型,而不是原始数据。在实践中,显示客户的私人信息与主要学习任务无关,可以从共享模型中发现,这有损于所承诺的隐私保护;然而,目前还没有正式的方法来量化共享模型/梯度中此类潜在信息渗漏。作为一种解决办法,我们引入和评估两个数学基础的衡量标准,以便更好地说明根据客户私人数据计算的共同梯度中所含信息的数量。首先,利用经验$mathcal{V}信息,我们展示如何量化用于攻击者的梯度中采集的私人潜在信息数量。第二,根据敏感性分析,我们使用雅各布矩阵,展示如何衡量与隐性信息有关的梯度变化。此外,我们展示了我们所提议的衡量标准的适用性,在(一) 以层方式将私人潜在信息本地化,在两种环境中,我们没有或我们没有使用攻击者网络的三个水平的真实性水平,在三个水平上,在实验性水平上,对比每个水平上,对攻击者基准度能力水平上的真实性水平上的数据。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
迁移学习简明教程,11页ppt
专知会员服务
109+阅读 · 2020年8月4日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
VIP会员
相关VIP内容
迁移学习简明教程,11页ppt
专知会员服务
109+阅读 · 2020年8月4日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员