We study the optimal design of contests as screening devices. In an incomplete information environment, contest results reveal information about the quality of the participating agents at the cost of potentially wasteful effort put in by these agents. We are interested in finding contests that maximize the information revealed per unit of expected effort put in by the agents. In a model with linear costs of effort and privately known marginal costs, we find the Bayes-Nash equilibrium strategy for arbitrary prize structures ($1=v_1 \geq v_2 \dots \geq v_n=0$) and show that the equilibrium strategy mapping marginal costs to effort is always a density function. It follows then that the expected effort under the uniform prior on marginal costs is independent of the prize structure. Restricting attention to a simple class of uniform prizes contests (top $k$ agents get $1$ and others get $0$), we find that the optimal screening contest under the uniform prior awards half as many prizes as there are agents. For the power distribution $F(\theta)=\theta^p$ with $p\geq 1$, we conjecture that the number of prizes in the optimal screening contest is decreasing in $p$. In addition, we also show that a uniform prize structure is generally optimal for the standard objectives of maximizing expected effort of an arbitrary agent, most efficient agent and least efficient agent.


翻译:在一个不完整的信息环境中,竞争结果揭示了参与者质量的信息,而参与者则可能付出浪费努力的代价。我们有兴趣找到竞争,最大限度地提供代理者按单位预期付出的努力所披露的信息。在一个有线性努力成本和私人已知边际成本的模型中,我们发现任意奖金结构的巴耶-纳什均衡战略(1=_1\geq v_2\dots\ dots\geq v_n=0$),并表明平衡战略绘制工作边际成本图总是一个密度功能。随后,在统一前边际成本下预期的努力是独立于奖项结构的。把注意力限制在简单的统一奖项竞赛类别上(最高为1美元代理者获得1美元,其他获得私人所知的边际成本获得0美元),我们发现,在统一奖项下的最佳筛选竞赛比以往奖项的一半奖项要多。关于以美元计算边际成本的平衡战略总是一个密度函数。因此,我们推测,在前边际边际成本上预期的预期工作是最佳标准奖项结构中,我们通常要展示最佳奖项中最佳的奖项目标数。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年6月30日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员