We consider a sequential blocked matching (SBM) model where strategic agents repeatedly report ordinal preferences over a set of services to a central mechanism. The central mechanism's goal is to elicit agents' true preferences and design a policy that matches services to agents in order to maximize the expected social welfare with the added constraint that each matched service can be \emph{blocked} or unavailable for a number of time periods. Naturally, SBM models the repeated allocation of reusable services to a set of agents where each allocated service becomes unavailable for a fixed duration. We first consider the offline SBM setting, where the the strategic agents are aware of the true preferences. We measure the performance of any policy by \emph{distortion}, the worst-case multiplicative approximation guaranteed by any policy. For the setting with $S$ services, we establish lower bounds of $\Omega(S)$ and $\Omega(\sqrt{S})$ on the distortions of any deterministic and randomised mechanisms, respectively. We complement these results by providing approximately truthful, measured by \emph{incentive ratio}, deterministic and randomised policies based on the repeated application of random serial dictatorship that match the lower bounds. Our results show that there is a significant improvement if one considers the class of randomised policies. Finally, we consider the online SBM setting with bandit feedback where each agent is unaware of her true preference, and the center must facilitate each agent in the learning of agent's preference through the matching of services over time. We design an approximately truthful mechanism based on the Explore-then-Commit paradigm, which achieves logarithmic dynamic approximate regret.


翻译:我们认为,这是一个顺序阻断的匹配模式(SBM),其中战略代理商反复向中央机制报告对一组服务的偏好。中央机制的目标是引导代理商的真正偏好,并设计一个符合代理商服务的政策,以最大限度地实现预期的社会福利,同时附加限制,即每个匹配的服务在一段时间内都可以被阻断或无法提供。自然,SBM模式将重复分配可重复使用的服务给一组代理商,其中每个分配的服务在固定期限内无法提供。我们首先考虑离线的 SBM 设置,其中战略代理商了解真正的偏好。我们用\emph{directrition}来衡量任何政策的业绩,我们用任何政策保证的最差的复现性倍增缩缩缩缩缩。对于以$smega(S)和$mega(sqrt{S}为标准,我们根据任何确定性的和随机化的机制,我们用直观的递增缩缩缩缩缩缩缩缩缩略图,我们通过每组的随机性策略来展示一个随机的排序。

0
下载
关闭预览

相关内容

【UBC】高级机器学习课程,Advanced Machine Learning
专知会员服务
25+阅读 · 2021年1月26日
专知会员服务
50+阅读 · 2020年12月14日
最新《Transformers模型》教程,64页ppt
专知会员服务
309+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
LEMON: Explainable Entity Matching
Arxiv
1+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年9月30日
Arxiv
0+阅读 · 2021年9月30日
Arxiv
0+阅读 · 2021年9月30日
Arxiv
0+阅读 · 2021年9月30日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
相关论文
Top
微信扫码咨询专知VIP会员