Leximin is a common approach to multi-objective optimization, frequently employed in fair division applications. In leximin optimization, one first aims to maximize the smallest objective value; subject to this, one maximizes the second-smallest objective; and so on. Often, even the single-objective problem of maximizing the smallest value cannot be solved accurately, e.g. due to computational hardness. What can we hope to accomplish for leximin optimization in this situation? Recently, Henzinger et al (2022) defined a notion of approximate leximin optimality, and showed how it can be computed for the problem of representative cohort selection. However, their definition considers only an additive approximation in the single-objective problem. In this work, we define approximate leximin optimality allowing approximations that have multiplicative and additive errors. We show how to compute a solution that approximates leximin in polynomial time, using an oracle that finds an approximation to the single-objective problem. The approximation factors of the algorithms are closely related: a factor of $(\alpha,\epsilon)$ for the single-objective problem translates into a factor of $\left(\frac{\alpha^2}{1-\alpha + \alpha^2}, \frac{\alpha(2-\alpha)\epsilon}{1-\alpha +\alpha^2}\right)$ for the multi-objective leximin problem, regardless of the number of objectives. As a usage example, we apply our algorithm to the problem of stochastic allocations of indivisible goods. For this problem, assuming sub-modular objectives functions, the single-objective egalitarian welfare can be approximated, with only a multiplicative error, to an optimal $1-\frac{1}{e}\approx 0.632$ factor w.h.p. We show how to extend the approximation to leximin, over all the objective functions, to a multiplicative factor of $\frac{(e-1)^2}{e^2-e+1}\approx 0.52$ w.h.p or $\frac{1}{3}$ deterministically.


翻译:摘要:Leximin是多目标优化中常用的方法,常用于公平分配应用中。在Leximin优化中,首先旨在最大化最小的目标值;在此基础上,最大化第二小的目标;依此类推。通常情况下,甚至最小值的最大化单目标问题也无法准确解决,例如由于计算复杂度。在这种情况下,我们能够为Leximin优化实现什么样的解决方案?最近,Henzinger等人(2022年)定义了一种近似的Leximin最优性,并展示了如何在代表性队列选择问题中计算。然而,他们的定义仅考虑单目标问题中的加法近似。在这项工作中,我们定义了近似的Leximin最优性,允许有乘法和加法误差的近似。我们展示了如何使用一个寻找单目标问题的近似的oracle在多项式时间内计算近似的Leximin解决方案。算法的近似因素密切相关:对于单目标问题,$(\alpha,\epsilon)$的因数转化为$(\frac{\alpha^2} {1-\alpha+\alpha^2},\frac{\alpha(2-\alpha)\epsilon}{1-\alpha+\alpha^2})$,这对于多目标Leximin问题是相同的,无论多少目标。作为使用示例,我们将算法应用于不可分配货物的随机分配问题。对于这个问题,假设子模点目标函数,单目标平等福利可以被近似地最优化到一个$1-\frac {1} {e}\approx 0.632$的因子w.h.p。我们展示了如何将近似扩展到Leximin,对于所有的目标函数,具有一个$\frac {(e-1)^2} {e^2-e+1}\approx 0.52$ w.h.p或$\frac {1} {3}$确定性的乘法因子。

0
下载
关闭预览

相关内容

南大《优化方法 (Optimization Methods》课程,推荐!
专知会员服务
79+阅读 · 2022年4月3日
【硬核书】矩阵代数基础,248页pdf
专知会员服务
86+阅读 · 2021年12月9日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
41+阅读 · 2020年7月23日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
量化金融强化学习论文集合
专知
13+阅读 · 2019年12月18日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
腊月廿八 | 强化学习-TRPO和PPO背后的数学
AI研习社
17+阅读 · 2019年2月2日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
强化学习初探 - 从多臂老虎机问题说起
专知
10+阅读 · 2018年4月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月9日
VIP会员
相关资讯
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
量化金融强化学习论文集合
专知
13+阅读 · 2019年12月18日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
腊月廿八 | 强化学习-TRPO和PPO背后的数学
AI研习社
17+阅读 · 2019年2月2日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
强化学习初探 - 从多臂老虎机问题说起
专知
10+阅读 · 2018年4月3日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员