We propose Noise-Augmented Privacy-Preserving Empirical Risk Minimization (NAPP-ERM) that solves ERM with differential privacy guarantees. Existing privacy-preserving ERM approaches may be subject to over-regularization with the employment of an l2 term to achieve strong convexity on top of the target regularization. NAPP-ERM improves over the current approaches and mitigates over-regularization by iteratively realizing target regularization through appropriately designed augmented data and delivering strong convexity via a single adaptively weighted dual-purpose l2 regularizer. When the target regularization is for variable selection, we propose a new regularizer that achieves both privacy and sparsity guarantees simultaneously. Finally, we propose a strategy to retrieve privacy budget when the strong convexity requirement is met, which can be returned to users such that the DP of ERM is guaranteed at a lower privacy cost than originally planned, or be recycled to the ERM optimization procedure to reduce the injected DP noise and improve the utility of DP-ERM. From an implementation perspective, NAPP-ERM can be achieved by optimizing a non-perturbed object function given noise-augmented data and can thus leverage existing tools for non-private ERM optimization. We illustrate through extensive experiments the mitigation effect of the over-regularization and private budget retrieval by NAPP-ERM on variable selection and prediction.


翻译:我们提议采用有差别的隐私保障解决机构风险管理问题的办法; 现有的隐私保护机构风险管理办法可能过于正规化,使用12个条件,以便在目标正规化的基础上实现强有力的精细化; 国家隐私保护机构风险管理办法改进了目前的办法,并通过设计得当的扩大数据,并通过单一的适应性加权双用途L2常规化,通过一个适应性加权的L2常规化机制,实现目标的高度集中化; 当目标正规化是为了选择变异性时,我们提议一个新的正规化机制,既实现隐私保障,又实现宽度保障; 最后,我们提议了一项战略,在满足强烈的凝固要求之后,收回隐私预算,可以归还给用户,保证机构风险管理的DP以比原计划低的隐私费用得到保障,或被回收到机构风险管理优化程序,以减少注入的DP-ERM噪音,提高DP-ERM的效用。 从执行角度看,国家隐私保护方案-ERM可以通过优化非渗透性对象功能,同时实现隐私和宽度保证; 通过对私营机构风险管理进行大规模优化的风险评估,从而说明对私营机构风险管理进行不定期的回收,从而说明对私营风险评估。

0
下载
关闭预览

相关内容

专知会员服务
71+阅读 · 2021年10月15日
专知会员服务
15+阅读 · 2021年5月21日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
6+阅读 · 2017年11月27日
【推荐】深度学习思维导图
机器学习研究会
15+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年12月10日
VIP会员
相关VIP内容
专知会员服务
71+阅读 · 2021年10月15日
专知会员服务
15+阅读 · 2021年5月21日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
6+阅读 · 2017年11月27日
【推荐】深度学习思维导图
机器学习研究会
15+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员