导 读
本文是第三十四届神经信息处理系统大会(NeurIPS 2020)入选论文《非诚实拍卖中效用与均衡的学习问题(Learning Utilities and Equilibria in Non-Truthful Auctions)》的解读。
该论文分析了在(非完美信息的)首价拍卖等非诚实拍卖中估计买家的效用的样本复杂性,即需要多少个来自买家的估值分布的样本才能(以精度
论文下载:https://arxiv.org/pdf/2007.01722.pdf
(或点击文末“阅读原文”跳转)
01
引 言
想象你身处一场首价拍卖(first price auction):卖家拍卖一件物品,另外
我要收集多少个样本,才能针对其他人的所有可能的出价策略,准确估计我在这场拍卖中的期望效用?
本论文告诉你:只要别人的策略是单调的(即估值越高报价越高),那么大约
02
形式化
在一场首价拍卖中,
每位买家的期望效用与其他买家的估值分布
【定义1:
注意到,我们希望在抽取样本后,同时估计多种估值和报价策略下的期望效用。如果我们事先固定一位买家,固定他的估值和所有人的报价策略,再通过抽样来估计效用的期望值,则仅需要
03
主要结果
【定理1】从每个分布
个样本,我们就能以至少
“单调的报价策略”是指报价关于估值递增,即
定理1给出了
【定理2】无论使用何种算法,为了对任意分布都能
04
证明思路
我们只介绍定理1的证明思路。我们采用的效用估计算法十分简单:直接在样本组成的均匀分布(即经验分布)上计算期望效用!形式化的,用
【引理1,[1]】用
因此,我们只需分析买家的效用组成的函数类的 pseudo-dimension。我们将效用
【引理2】对任意买家
引理1 + 引理2 + union bound on the failure probability => 定理1。
05
推 论
既然买家在真实分布下的期望效用可以被经验分布下的期望效用近似,不难想到,经验分布下的贝叶斯纳什均衡(Bayesian Nash Equilibrium)必然是真实分布下的一个近似贝叶斯纳什均衡。
【推论1】从
推论1可以帮我们计算首价拍卖在任意估值分布上的(近似)贝叶斯纳什均衡。[2]提出了一个多项式时间算法,可以求出首价拍卖在任意离散分布上的(近似)均衡。推论1将[2]推广到了非离散的估值分布:因为经验分布是离散分布,所以只要先从估值分布中采样,然后用[2]的算法求经验分布上的均衡即可。于是我们有如下推论:
【推论2】对于首价拍卖,存在多项式时间算法,可以针对任意估值分布以高概率求出一组近似贝叶斯纳什均衡。
定理1、2和推论1对首价拍卖和“所有人付费拍卖(all pay auction)”都成立。在所有人付费拍卖中,所有买家都要支付自己的报价,不论输赢。
06
结 论
近年来不少文章(如[3, 4, 5])研究了非完美信息拍卖中的样本复杂性问题。然而,大部分工作考虑的都是卖家收益最大化的样本复杂性,鲜有工作研究买家收益最大化。而且,大部分现有工作都关注诚实拍卖,不涉及非诚实的报价策略。[6]是一个特例:他们研究了非诚实拍卖中一位买家诚实报价的效用与非诚实报价的效用至多相差多少。与本文一样,[6]也采用了“采样->估计”的思路。但他们没有解决如何找到一组同时最大化所有买家的效用的策略(即纳什均衡)的问题,而这正是本文的贡献之一。
基于本文的后续工作可以研究多物品(多参数)拍卖、非独立估值分布等场景下的期望效用估计问题。
参考文献
[1] Martin Anthony and Peter L Bartlett. Neural network learning: Theoretical foundations. Cambridge University Press, 2009.
[2] Weiran Shen, Zihe Wang, and Song Zuo. Bayesian Nash equilibrium in first-price auction with discrete value distributions. AAMAS 2020.
[3] Richard Cole and Tim Roughgarden. The sample complexity of revenue maximization. STOC 2014.
[4] Chenghao Guo, Zhiyi Huang, and Xinzhi Zhang. Settling the sample complexity of single-parameter revenue maximization. STOC 2019.
[5] Johannes Brustle, Yang Cai, and Constantinos Daskalakis. Multi-Item Mechanisms without Item-Independence: Learnability via Robustness. EC 2020.
[6] Maria-Florina Balcan, Tuomas Sandholm, and Ellen Vitercik. Estimating approximate incentive compatibility. EC 2019.
神经信息处理系统大会(Conference on Neural Information Processing Systems, NeurIPS)是人工智能和机器学习领域的国际顶级会议,自1987年开始,每年的12月份,来自世界各地的从事人工智能和机器学习相关的专家学者和从业人士汇聚一堂。NeurIPS 2020将于12月6日-12日在线举行。
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“UENTA” 就可以获取《NeurIPS 2020 | 非诚实拍卖中效用与均衡的学习问题》专知下载链接