We study differentially private stochastic optimization in convex and non-convex settings. For the convex case, we focus on the family of non-smooth generalized linear losses (GLLs). Our algorithm for the $\ell_2$ setting achieves optimal excess population risk in near-linear time, while the best known differentially private algorithms for general convex losses run in super-linear time. Our algorithm for the $\ell_1$ setting has nearly-optimal excess population risk $\tilde{O}\big(\sqrt{\frac{\log{d}}{n\varepsilon}}\big)$, and circumvents the dimension dependent lower bound of \cite{Asi:2021} for general non-smooth convex losses. In the differentially private non-convex setting, we provide several new algorithms for approximating stationary points of the population risk. For the $\ell_1$-case with smooth losses and polyhedral constraint, we provide the first nearly dimension independent rate, $\tilde O\big(\frac{\log^{2/3}{d}}{{(n\varepsilon)^{1/3}}}\big)$ in linear time. For the constrained $\ell_2$-case with smooth losses, we obtain a linear-time algorithm with rate $\tilde O\big(\frac{1}{n^{1/3}}+\frac{d^{1/5}}{(n\varepsilon)^{2/5}}\big)$. Finally, for the $\ell_2$-case we provide the first method for {\em non-smooth weakly convex} stochastic optimization with rate $\tilde O\big(\frac{1}{n^{1/4}}+\frac{d^{1/6}}{(n\varepsilon)^{1/3}}\big)$ which matches the best existing non-private algorithm when $d= O(\sqrt{n})$. We also extend all our results above for the non-convex $\ell_2$ setting to the $\ell_p$ setting, where $1 < p \leq 2$, with only polylogarithmic (in the dimension) overhead in the rates.


翻译:在 convex 和非 convex 设置中, 我们研究不同的私人共享优化 。 在 convex 中, 我们只研究 $_ $1 设置中 。 对于 convex 来说, 我们关注的是非moth 通用线性损失( GLLs) 的家族。 我们的 $_ $_ 2 的算法在近线性时间里实现了最佳的超人口风险。 而对于普通的 convex 损失来说, 我们的 $_ ell_ 1 设置的算法只有近乎最佳的超人口风险 $( dede) (Oñbig (\ sqrt) $$ (d) 美元= 美元 (d_ vaxn\ vreql) 普通 。 当 美元=% = =% = = dralx 平滑度损失时, 我们第一次提供了 美元 独立汇率 的 。 美元\\\\\\\\\\\\\\\\\\\\ max lax ral lax ral lax lax ral ral ral ral r=x ral ral r=x

0
下载
关闭预览

相关内容

【ICML2021】学习分子构象生成的梯度场
专知会员服务
14+阅读 · 2021年5月30日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
110+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Normalizing Flows入门(上)
AINLP
8+阅读 · 2020年8月1日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【AI认人】你需要知道的10种行人属性
极市平台
10+阅读 · 2018年7月26日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
Arxiv
0+阅读 · 2022年1月13日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
Normalizing Flows入门(上)
AINLP
8+阅读 · 2020年8月1日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【AI认人】你需要知道的10种行人属性
极市平台
10+阅读 · 2018年7月26日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
Top
微信扫码咨询专知VIP会员