Despite the significant interests and many progresses in decentralized multi-player multi-armed bandits (MP-MAB) problems in recent years, the regret gap to the natural centralized lower bound in the heterogeneous MP-MAB setting remains open. In this paper, we propose BEACON -- Batched Exploration with Adaptive COmmunicatioN -- that closes this gap. BEACON accomplishes this goal with novel contributions in implicit communication and efficient exploration. For the former, we propose a novel adaptive differential communication (ADC) design that significantly improves the implicit communication efficiency. For the latter, a carefully crafted batched exploration scheme is developed to enable incorporation of the combinatorial upper confidence bound (CUCB) principle. We then generalize the existing linear-reward MP-MAB problems, where the system reward is always the sum of individually collected rewards, to a new MP-MAB problem where the system reward is a general (nonlinear) function of individual rewards. We extend BEACON to solve this problem and prove a logarithmic regret. BEACON bridges the algorithm design and regret analysis of combinatorial MAB (CMAB) and MP-MAB, two largely disjointed areas in MAB, and the results in this paper suggest that this previously ignored connection is worth further investigation.


翻译:尽管近年来在分散的多玩家多武装匪徒(MP-MAB)问题上存在重大利益和许多进展,但是,尽管近年来在分散的多玩家多武装匪徒(MP-MAB)问题上,自然集中的低约束在多式MP-MAB设置中仍存在着令人遗憾的差距。我们在此文件中建议,BEACON -- -- 与适应性的COmmununicatioN(与适应性的COmmununicatioN(BACHON)结合探索) -- -- 填补这一差距。BEACON以隐含的通信和有效探索的新贡献来实现这一目标。我们建议对前者采用新的适应性差分级通信设计,大大提高隐含的通信效率。对于后者,我们精心设计的分批的勘探计划将组合式高信任(CUCB)原则纳入。我们随后将现有的线性调整的MP-MAB问题 -- -- 即系统奖励始终是个别获得的报酬的总和。对于系统奖励是个人报酬的一般(非线性)功能。我们将BACON用于解决这一问题,并证明值得辩驳。BCON将算术设计和遗憾的分析与MMAB(MAB)进一步建议,在先前的MAB(CUD-MAB)中。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
26+阅读 · 2021年3月5日
机器学习组合优化
专知会员服务
106+阅读 · 2021年2月16日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年12月28日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员