We study two-sided matching markets in which one side of the market (the players) does not have a priori knowledge about its preferences for the other side (the arms) and is required to learn its preferences from experience. Also, we assume the players have no direct means of communication. This model extends the standard stochastic multi-armed bandit framework to a decentralized multiple player setting with competition. We introduce a new algorithm for this setting that, over a time horizon $T$, attains $\mathcal{O}(\log(T))$ stable regret when preferences of the arms over players are shared, and $\mathcal{O}(\log(T)^2)$ regret when there are no assumptions on the preferences on either side. Moreover, in the setting where a single player may deviate, we show that the algorithm is incentive compatible whenever the arms' preferences are shared, but not necessarily so when preferences are fully general.


翻译:我们研究的是双面匹配市场,其中市场一方(参与者)没有先验地了解对另一方(武器)的偏好,需要从经验中学习其偏好。此外,我们假设参与者没有直接的沟通手段。这个模式将标准的随机多武装强盗框架扩展到一个分散的多个参与者的竞争环境。我们为这一环境引入一种新的算法,在一定的时间范围内,当武器对另一方(武器)的偏好得到共享时,这种算法会达到$\mathcal{O}((log(T))$稳定地遗憾,而当任何一方的偏好没有假设时,则会后悔$\mathcal{O}(log(T)2)$。此外,在单一参与者可能偏差的环境下,我们表明,在共享武器偏好时,算法是兼容的,但当优惠完全普遍时,这种算法不一定是兼容的。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
深度强化学习策略梯度教程,53页ppt
专知会员服务
182+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
A Unified Framework for Hopsets and Spanners
Arxiv
0+阅读 · 2021年8月24日
Arxiv
0+阅读 · 2021年8月22日
A Modern Introduction to Online Learning
Arxiv
21+阅读 · 2019年12月31日
Arxiv
3+阅读 · 2018年10月18日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关VIP内容
专知会员服务
51+阅读 · 2020年12月14日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
深度强化学习策略梯度教程,53页ppt
专知会员服务
182+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
A Unified Framework for Hopsets and Spanners
Arxiv
0+阅读 · 2021年8月24日
Arxiv
0+阅读 · 2021年8月22日
A Modern Introduction to Online Learning
Arxiv
21+阅读 · 2019年12月31日
Arxiv
3+阅读 · 2018年10月18日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
10+阅读 · 2017年12月29日
Top
微信扫码咨询专知VIP会员