We study stochastic convex optimization with heavy-tailed data under the constraint of differential privacy. Most prior work on this problem is restricted to the case where the loss function is Lipschitz. Instead, as introduced by Wang, Xiao, Devadas, and Xu, we study general convex loss functions with the assumption that the distribution of gradients has bounded $k$-th moments. We provide improved upper bounds on the excess population risk under approximate differential privacy of $\tilde{O}\left(\sqrt{\frac{d}{n}}+\left(\frac{d}{\epsilon n}\right)^{\frac{k-1}{k}}\right)$ and $\tilde{O}\left(\frac{d}{n}+\left(\frac{d}{\epsilon n}\right)^{\frac{2k-2}{k}}\right)$ for convex and strongly convex loss functions, respectively. We also prove nearly-matching lower bounds under the constraint of pure differential privacy, giving strong evidence that our bounds are tight.


翻译:在限制隐私的情况下,我们用重整数据来研究重整的 convex 优化。 这个问题以前的大部分工作仅限于损失功能为 Lipschitz 的情况。 相反,正如Wang、 Xiao、 Devadas 和 Xu 所介绍的那样, 我们研究一般的 convex 损失功能, 假设梯度分布已经约束了 $k$- 秒。 我们根据 $\ tilde{ Offleft (sqrt k2k- k ⁇ right) 和 $\ tilde{ left (\ frac{d- lepsilon n ⁇ right) 的近似差异性隐私( $\ telft) 和 $\ telft (\\\ frac{ d ⁇ n ⁇ n ⁇ left (\\\ frac{d- left)\ d- left (d- left (d-epslon n ⁇ right) {frac{2k- 2 ⁇ k- k ⁇ right) 提供了超重的超重的超重人口风险。 我们还也证明在纯粹差异隐私限制下, 我们的更接近更接近更接近更接近的下, 的下也证明了更接近更接近于更接近于更接近的界限。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
14+阅读 · 2021年5月21日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
已删除
将门创投
4+阅读 · 2017年11月1日
Arxiv
0+阅读 · 2021年7月27日
Arxiv
0+阅读 · 2021年7月26日
Optimization on manifolds: A symplectic approach
Arxiv
0+阅读 · 2021年7月23日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2017年11月1日
Top
微信扫码咨询专知VIP会员