Generative models are widely used for publishing synthetic datasets. Despite practical successes, recent works have shown that generative models may leak privacy of the data that have been used during training. Specifically, membership inference attacks aim to determine whether a sample has been used in the training set given query access to the model API. However, many of the attacks designed against generative models need to know very specific attributes from the learned models (e.g. discriminator scores, generated images, etc.). Furthermore, many of these attacks are only heuristic-based and do not provide effective bounds for privacy loss. In this work, we formally study the membership privacy leakage risk of generative models and propose a membership privacy estimation framework. We formulate membership privacy as a statistical divergence between training samples and hold-out samples, and propose sample-based methods to estimate this divergence. Unlike previous works, our proposed metric and estimators make realistic and flexible assumptions. First, we use a generalizable metric as an alternative to accuracy, since practical model training often leads to imbalanced train/hold-out splits. Second, our estimators are capable of estimating statistical divergence using any scalar or vector valued attributes from the learned model instead of very specific attributes. This allows our framework to provide data-driven certificates for trained generative models. Finally, we show a connection to differential privacy which allows our proposed estimators to be used to understand the privacy budget needed for differentially private generative models. We demonstrate the utility of our framework through experimental demonstrations on different generative models using various model attributes yielding some new insights about membership leakage and vulnerabilities of models.


翻译:尽管取得了实际的成功,但最近的著作表明,基因模型可能会泄露培训期间使用的数据的隐私。具体地说,成员推论攻击的目的是确定在培训组中是否使用了样本,从而可以查询模型API。然而,许多针对基因模型的攻击需要了解从所学模型中得出的非常具体的属性(例如区分分数、生成的图像等)。此外,许多这类攻击只是基于粗略的隐私框架,不能为隐私损失提供有效的界限。在这项工作中,我们正式研究基因模型的成员隐私渗漏风险,并提议一个成员隐私估计框架。我们将隐私作为培训组样本和搁置样本之间的统计差异,并提出基于样本的方法来估计这种差异。与以前的工作不同,我们提议的衡量和估计模型需要现实和灵活的假设。首先,我们使用一个可计量的通用模型来替代准确性,因为实用的模型往往导致不同程度的训练/控股差异分分。第二,我们关于基因组模型的估算成员隐私渗漏风险风险,并提出一个成员隐私估计框架。我们把隐私作为统计数据差异的统计差异的差别,我们通过经过训练的分类模型,最后通过任何经过评估的基因变变变变的模型来显示我们所学的基因变的模型,我们用的基因变变的模型,从而能够从一个经过研究的基因变动的模型来展示的基因变动的基因变的模型来显示我们所学的基因变的基因变的模型,我们所学的基因变的基因变的分类的模型,最后显示的基因变的分类的分类的基因变的模型,我们所学的基因变的基因变的基因变。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
4+阅读 · 2018年4月30日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员