Multi-round competitions often double or triple the points awarded in the final round, calling it a bonus, to maximize spectators' excitement. In a two-player competition with $n$ rounds, we aim to derive the optimal bonus size to maximize the audience's overall expected surprise (as defined in [7]). We model the audience's prior belief over the two players' ability levels as a beta distribution. Using a novel analysis that clarifies and simplifies the computation, we find that the optimal bonus depends greatly upon the prior belief and obtain solutions of various forms for both the case of a finite number of rounds and the asymptotic case. In an interesting special case, we show that the optimal bonus approximately and asymptotically equals to the "expected lead", the number of points the weaker player will need to come back in expectation. Moreover, we observe that priors with a higher skewness lead to a higher optimal bonus size, and in the symmetric case, priors with a higher uncertainty also lead to a higher optimal bonus size. This matches our intuition since a highly asymmetric prior leads to a high "expected lead", and a highly uncertain symmetric prior often leads to a lopsided game, which again benefits from a larger bonus.


翻译:多个回合的竞赛往往使最后一轮中授予的分数翻倍或三倍,称为奖金,以最大限度地提高观众的兴奋程度。在一次用美元回合进行的双玩者竞赛中,我们的目标是获得最佳的奖金规模,以最大限度地实现观众预期的总体惊喜(如[7]所定义 ) 。我们把观众先前对两个玩家能力水平的信念作为贝塔分布模型。我们用澄清和简化计算方法的新分析,发现最佳奖金在很大程度上取决于先前的信念,并获得各种形式的解决方案,用于数量有限的回合和无药用案例。在一个有趣的特殊案例中,我们显示最佳奖金大约和无药用数量相等于“预期铅”,弱势玩家需要恢复预期的点数。此外,我们观察到,更偏差的前期导致最高最佳的奖金规模,而在更不确定之前,不确定性也导致更高的最佳奖金规模。这与我们的直觉相匹配,因为在高度不对称之前导致高“偏差”前,往往导致更大规模的奖金。

0
下载
关闭预览

相关内容

ICML 2021论文收录
专知会员服务
123+阅读 · 2021年5月8日
【DeepMind】强化学习教程,83页ppt
专知会员服务
154+阅读 · 2020年8月7日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
16+阅读 · 2020年4月28日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
【DeepMind】多智能体学习231页PPT总结
深度强化学习实验室
14+阅读 · 2020年6月23日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年9月18日
Arxiv
3+阅读 · 2018年10月18日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关资讯
【DeepMind】多智能体学习231页PPT总结
深度强化学习实验室
14+阅读 · 2020年6月23日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员