Motivated by crowdsourced computation, peer-grading, and recommendation systems, Braver- man et al. [STOC'16] recently studied the query and round complexity of classic and popu- lar problems such as finding the maximum (max), finding all elements above a certain value (threshold-v) or computing the top-k elements of an array (top-k) in a noisy environment. An illustrating example is the task of selecting papers for a conference. This task is challenging due the crowdsourcing-nature of peer reviews: (1) the results of reviews are noisy and (2) it is necessary to parallelize the review process as much as possible. Thus, we study these fundamental problems in the noisy value model and the noisy comparison model: In the noisy value model, every review returns a value (e.g. accept). In the noisy comparison model (introduced in the seminal work of Feige et al. [SICOMP'94]) a reviewer is asked a comparative yes or no question: "Is paper i better than paper j?" In a first step, we show optimal worst-case upper and lower bounds on the round vs query complexity for max and top-k in all models. For threshold-v, we obtain optimal query complexity and nearly-optimal (i.e., optimal up to a factor O(log log k), where k is the size of the output) round complexity for all models. We then go beyond the worst-case and provide--for a large range of parameters instance-optimal algorithms (w.r.t. to the query complexity)-i.e., answering the question how important knowledge of the instance is. We complement these results by showing that for some family of instances, no instance-optimal algorithm can exist. Furthermore, we show that the value-and comparison-model are for most practical settings asymptotically equivalent (for all the above mentioned problems); on the other side, the value model is strictly easier than the comparison model in the case where the papers are totally ordered.


翻译:Braver- man et al. [STOC'16] 最近研究了经典和流行- pop- lar 问题的质询和全方位复杂性, 如找到最大值( 最大值), 发现在吵闹的环境中所有高于一定值的元素( 临界值- v), 或计算一个阵列( 顶点- k) 的顶点元素。 一个说明性的例子就是为会议选择文件的任务。 由于同行审评的众点- 复杂性, 此任务具有挑战性:(1) 审评的结果是吵闹的, (2) 有必要尽可能将审评进程平行化。 因此, 我们研究了这些最吵闹的值模型和噪音比较模型: 在噪音值模型中, 每次审查都返回一个值值值值的顶点( 例如接受) 。 在杂乱的比较模型中( 在Fege 和 al. [ SICOMP' 94] 的原始模型中, 一个审查者被问到一个比较是肯定的还是没有问题 。 在第一个步骤中, 我们显示的是最坏的上点和最坏的模型, 最坏的模型是最高和最低的模型。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
91+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
【泡泡一分钟】学习多视图相似度(ICCV-2017)
泡泡机器人SLAM
9+阅读 · 2018年10月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
11+阅读 · 2018年9月28日
Arxiv
3+阅读 · 2018年4月11日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
【泡泡一分钟】学习多视图相似度(ICCV-2017)
泡泡机器人SLAM
9+阅读 · 2018年10月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员