Given a graph $G = (V,E)$ where every vertex has a weak ranking over its neighbors, we consider the problem of computing an optimal matching as per agent preferences. The classical notion of optimality in this setting is stability. However stable matchings, and more generally, popular matchings need not exist when $G$ is non-bipartite. Unlike popular matchings, Copeland winners always exist in any voting instance -- we study the complexity of computing a matching that is a Copeland winner and show there is no polynomial-time algorithm for this problem unless $\mathsf{P} = \mathsf{NP}$. We introduce a relaxation of both popular matchings and Copeland winners called weak Copeland winners. These are matchings with Copeland score at least $\mu/2$, where $\mu$ is the total number of matchings in $G$; the maximum possible Copeland score is $(\mu-1/2)$. We show a fully polynomial-time randomized approximation scheme to compute a matching with Copeland score at least $\mu/2\cdot(1-\varepsilon)$ for any $\varepsilon > 0$.


翻译:根据每个顶点都比邻国排名低的图形 $G = (V,E) $G = (V,E) 美元,我们考虑按照代理人的偏好计算最佳匹配的问题。在这个环境中,典型的优化概念是稳定的。尽管相匹配是稳定的,更一般地说,当美元不是两边的时,大众匹配就不需要存在。与流行的匹配不同,科普兰的赢家总是存在于任何投票实例中。我们研究计算一个匹配的复杂性,它是一个科普兰赢家,并显示对于这个问题没有多元时间算法,除非$\mathsf{P} =\mathsfsf{NP} = 美元。我们引入了一种对流行匹配者和科普兰赢家称为弱赢家的宽松。这些匹配与科普兰的得分至少是$\mu/2美元,而美元是任何G$的匹配总数;可能达到的科普兰得分最高值是$(mu1/2)。我们展示了一种完全多时随机的近率计划,以便在任何1美元\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

0
下载
关闭预览

相关内容

【硬核书】矩阵代数基础,248页pdf
专知会员服务
83+阅读 · 2021年12月9日
【微软】深度学习推理系统,45页ppt
专知会员服务
35+阅读 · 2021年6月27日
GSMA:人工智能赋能安全应用案例集,114页pdf
专知会员服务
67+阅读 · 2021年3月16日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
tensorflow LSTM + CTC实现端到端OCR
机器学习研究会
26+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月15日
Arxiv
0+阅读 · 2022年1月15日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
tensorflow LSTM + CTC实现端到端OCR
机器学习研究会
26+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员