We study stochastic convex optimization with heavy-tailed data under the constraint of differential privacy. Most prior work on this problem is restricted to the case where the loss function is Lipschitz. Instead, as introduced by Wang, Xiao, Devadas, and Xu, we study general convex loss functions with the assumption that the distribution of gradients has bounded $k$-th moments. We provide improved upper bounds on the excess population risk under approximate differential privacy of $\tilde{O}\left(\sqrt{\frac{d}{n}}+\left(\frac{d}{\epsilon n}\right)^{\frac{k-1}{k}}\right)$ and $\tilde{O}\left(\frac{d}{n}+\left(\frac{d}{\epsilon n}\right)^{\frac{2k-2}{k}}\right)$ for convex and strongly convex loss functions, respectively. We also prove nearly-matching lower bounds under the constraint of pure differential privacy, giving strong evidence that our bounds are tight.


翻译:在限制隐私的情况下,我们用重整数据来研究重整的 convex 优化。 这个问题以前的大部分工作仅限于损失功能为 Lipschitz 的情况。 相反,正如Wang、 Xiao、 Devadas 和 Xu 所介绍的那样, 我们研究一般的 convex 损失功能, 假设梯度分布已经约束了 $k$- 秒。 我们根据 $\ tilde{ Offleft (sqrt k2k- k ⁇ right) 和 $\ tilde{ left (\ frac{d- lepsilon n ⁇ right) 的近似差异性隐私( $\ telft) 和 $\ telft (\\\ frac{ d ⁇ n ⁇ n ⁇ left (\\\ frac{d- left)\ d- left (d- left (d-epslon n ⁇ right) {frac{2k- 2 ⁇ k- k ⁇ right) 提供了超重的超重的超重人口风险。 我们还也证明在纯粹差异隐私限制下, 我们的更接近更接近更接近更接近的下, 的下也证明了更接近更接近于更接近于更接近的界限。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
14+阅读 · 2021年5月21日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
PLANET+SAC代码实现和解读
CreateAMind
3+阅读 · 2019年7月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【 关关的刷题日记47】Leetcode 38. Count and Say
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【TED】同情心的进化论
英语演讲视频每日一推
3+阅读 · 2017年8月16日
VIP会员
相关资讯
PLANET+SAC代码实现和解读
CreateAMind
3+阅读 · 2019年7月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
LeetCode的C++ 11/Python3 题解及解释
专知
16+阅读 · 2019年4月13日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【 关关的刷题日记47】Leetcode 38. Count and Say
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【TED】同情心的进化论
英语演讲视频每日一推
3+阅读 · 2017年8月16日
Top
微信扫码咨询专知VIP会员