Through the lens of information-theoretic reductions, we examine a reductions approach to fair optimization and learning where a black-box optimizer is used to learn a fair model for classification or regression. Quantifying the complexity, both statistically and computationally, of making such models satisfy the rigorous definition of differential privacy is our end goal. We resolve a few open questions and show applicability to fair machine learning, hypothesis testing, and to optimizing non-standard measures of classification loss. Furthermore, our sample complexity bounds are tight amongst all strategies that jointly minimize a composition of functions. The reductions approach to fair optimization can be abstracted as the constrained group-objective optimization problem where we aim to optimize an objective that is a function of losses of individual groups, subject to some constraints. We give the first polynomial-time algorithms to solve the problem with $(\epsilon, 0)$ or $(\epsilon, \delta)$ differential privacy guarantees when defined on a convex decision set (for example, the $\ell_P$ unit ball) with convex constraints and losses. Accompanying information-theoretic lower bounds for the problem are presented. In addition, compared to a previous method for ensuring differential privacy subject to a relaxed form of the equalized odds fairness constraint, the $(\epsilon, \delta)$-differentially private algorithm we present provides asymptotically better sample complexity guarantees, resulting in an exponential improvement in certain parameter regimes. We introduce a class of bounded divergence linear optimizers, which could be of independent interest, and specialize to pure and approximate differential privacy.


翻译:通过信息理论减少的透镜,我们检查公平优化和学习的削减方法,在使用黑盒优化器学习公平分类或回归模式的公平模式时,我们检查公平优化和学习的削减方法;在统计上和计算上,量化使这些模型满足差异隐私严格定义的复杂程度是我们的最终目标。我们解决了几个开放的问题,并展示了公平机器学习、假设测试和优化非标准分类损失衡量标准的适用性。此外,我们抽样复杂性的界限在所有战略中是紧紧的,共同最大限度地减少功能构成。公平优化的削减方法可以被抽象地作为限制群体目标优化。我们的目标是优化一个以单个群体损失函数为函数的目标,但受一些限制。我们给出了第一个多盘时间算算法来解决问题,用$(\ epsilon, 0) 或 $(\ epsilon,\ dedeltatalax) 差异隐私权保障, 以更精确的缩缩缩缩压方法, 以更精确的缩缩压为我们提供了以前的缩压。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
50+阅读 · 2020年12月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
已删除
将门创投
11+阅读 · 2019年7月4日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
VIP会员
相关资讯
已删除
将门创投
11+阅读 · 2019年7月4日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员