This paper studies \emph{differential privacy (DP)} and \emph{local differential privacy (LDP)} in cascading bandits. Under DP, we propose an algorithm which guarantees $\epsilon$-indistinguishability and a regret of $\mathcal{O}((\frac{\log T}{\epsilon})^{1+\xi})$ for an arbitrarily small $\xi$. This is a significant improvement from the previous work of $\mathcal{O}(\frac{\log^3 T}{\epsilon})$ regret. Under ($\epsilon$,$\delta$)-LDP, we relax the $K^2$ dependence through the tradeoff between privacy budget $\epsilon$ and error probability $\delta$, and obtain a regret of $\mathcal{O}(\frac{K\log (1/\delta) \log T}{\epsilon^2})$, where $K$ is the size of the arm subset. This result holds for both Gaussian mechanism and Laplace mechanism by analyses on the composition. Our results extend to combinatorial semi-bandit. We show respective lower bounds for DP and LDP cascading bandits. Extensive experiments corroborate our theoretic findings.


翻译:本文研究 \ emph{ 不同隐私 (DP) 和\ emph{ 地方差异隐私 (LDP) 。 根据 DP, 我们提议一种算法, 保证 $\ epsilon $- indididibilable 和 $\ mathcal{ O} ((\\ fracxlog Tunpsilon} ) 和 \ emph{ 地方差异隐私 (LDP) 。 这比 $\ mathcal{ O} (\\ frac) 3 Tunepsilon} 的以往工作大有改进。 在 $\ epsilon $ ($\ delta$) - LDP 下, 我们通过 隐私预算 $\ epslon 和 错误概率 $\ delta} 来放松2美元的依赖, 并获得 $\ maxcalcal devolution, $K$K$ 和 Labro degistrateal rogradual ro res res resmagistrual res resmagistrisal res res resmagistrismabal 。 这个结果, 我们的构成和我们的底的图像分析结果, DP 和我们的底底底底底的 和底底底的仪, DP 和底的仪表, 我们的仪表, 我们的仪表, 我们的仪表,我们的仪表,我们的仪表和底的仪表,我们的仪表的仪表。

0
下载
关闭预览

相关内容

专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
32+阅读 · 2021年3月7日
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
机器学习算法集锦:从贝叶斯到深度学习及各自优缺点
人工智能学家
11+阅读 · 2019年2月15日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年7月12日
Arxiv
0+阅读 · 2021年7月9日
Arxiv
0+阅读 · 2021年7月9日
VIP会员
相关资讯
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
机器学习算法集锦:从贝叶斯到深度学习及各自优缺点
人工智能学家
11+阅读 · 2019年2月15日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员