We study online weighted bipartite matching of reusable resources where an adversarial sequence of requests for resources arrive over time. A resource that is matched is 'used' for a random duration, drawn independently from a resource-dependent distribution, after which it returns and is able to be matched again. We study the performance of the greedy policy, which matches requests to the resource that yields the highest reward. Previously, it was known that the greedy policy is 1/2 competitive against a clairvoyant benchmark that knows the request sequence in advance. In this work, we improve this result by introducing a parameter that quantifies the degree of reusability of the resources. Specifically, if p represents the smallest probability over the usage distributions that a matched resource returns in one time step, the greedy policy achieves a competitive ratio of $1/(2-p)$. Furthermore, when the usage distributions are geometric, we establish a stronger competitive ratio of $(1+p)/2$, which we demonstrate to be tight. Both of these results align with the known results in the two extreme scenarios: p = 0 corresponds to non-reusable resources, where 1/2 is known to be tight, while p = 1 corresponds to every resource returning immediately, where greedy is the optimal policy and hence the competitive ratio is 1. Finally, we show that both results are robust to approximations of the greedy policy. Our work demonstrates that the reusability of resources can enhance performance compared to the non-reusable setting, and that a simple greedy policy suffices when the degree of reusability is high. Our insights contribute to the understanding of how resource reusability can influence the performance of online algorithms, and highlight the potential for improved performance as the degree of reusability increases.


翻译:本文研究了在线加权二分匹配的可重用资源情形,其中对资源的请求以对抗性序列方式随时间到达。匹配成功的资源将被“使用”一段时间,使用时间服从与该资源有关的分布,之后将返回并能够再次匹配。研究了贪心策略的性能,该策略将请求匹配到可提供最高回报的资源上。既往已知,贪心策略对于一个已知请求序列的博弈中心标准的竞争比率为1/2。本文引入了一个参数,用于量化可重用资源的程度,并对贪心策略的性能进行了改进。具体而言,如果 p 表示使用分布中某个匹配中的资源在一个时间步后返回的最小概率,则贪心策略可以实现一个竞争比率为 $1/(2-p)$。此外,当使用分布服从几何分布时,我们建立了一个更加强劲的竞争比率为$(1+p)/2$,并证明了它是最紧的。这两个结果都与极端情况下的已知结果保持一致:p = 0 对应不可重用资源,其中 1/2 已知是最紧的,而当 p = 1 时,每个资源立即返回,贪心策略是最优策略,因此竞争比率为1。最后,我们表明,这两个结果对贪心策略的近似是稳健的。我们的研究表明,资源可重用性可以提高在线算法的性能,当可重用性高时,简单的贪心策略足以胜任。我们的研究贡献于理解资源可重用性如何影响在线算法的性能,并凸显了资源可重用性增加的潜在性能提升。

0
下载
关闭预览

相关内容

专知会员服务
19+阅读 · 2021年9月16日
专知会员服务
32+阅读 · 2021年3月7日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月24日
Arxiv
0+阅读 · 2023年5月24日
VIP会员
相关VIP内容
专知会员服务
19+阅读 · 2021年9月16日
专知会员服务
32+阅读 · 2021年3月7日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员