Privacy protection with synthetic data generation often uses differentially private statistics and model parameters to quantitatively express theoretical security. However, these methods do not take into account privacy protection due to the randomness of data generation. In this paper, we theoretically evaluate R\'{e}nyi differential privacy of the randomness in data generation of a synthetic data generation method that uses the mean vector and the covariance matrix of an original dataset. Specifically, for a fixed $\alpha > 1$, we show the condition of $\varepsilon$ such that the synthetic data generation satisfies $(\alpha, \varepsilon)$-R\'{e}nyi differential privacy under a bounded neighboring condition and an unbounded neighboring condition, respectively. In particular, under the unbounded condition, when the size of the original dataset and synthetic datase is 10 million, the mechanism satisfies $(4, 0.576)$-R\'{e}nyi differential privacy. We also show that when we translate it into the traditional $(\varepsilon, \delta)$-differential privacy, the mechanism satisfies $(4.00, 10^{-10})$-differential privacy.


翻译:利用合成数据生成进行数据隐私保护通常使用差分隐私统计和模型参数来定量表达理论安全性。然而,这些方法并没有考虑到由于数据生成的随机性而产生的隐私保护。本文通过理论分析,在使用原始数据集的均值向量和协方差矩阵的合成数据生成方法中,从 $\varepsilon$ 来确定 $(\alpha, \varepsilon)$-R\'{e}nyi 差分隐私的条件,其中 $\alpha > 1$ 固定。具体而言,在受到有界邻近条件和无界邻近条件的限制下,满足 $(\alpha, \varepsilon)$-R\'{e}nyi 差分隐私时,我们展示了 $\varepsilon$ 的条件。尤其是在无界条件下,当原始数据集和合成数据集的大小均为 1000 万时,该机制满足 $(4, 0.576)$-R\'{e}nyi 差分隐私。同时,我们还证明,当将其转换为传统的 $(\varepsilon, \delta)$-差分隐私时,该机制满足 $(4.00, 10^{-10})$-差分隐私。

0
下载
关闭预览

相关内容

「机器学习中差分隐私」最新2022进展综述
专知会员服务
51+阅读 · 2022年9月9日
专知会员服务
50+阅读 · 2020年12月14日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
0+阅读 · 2023年5月17日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员