The conference peer review process involves three constituencies with different objectives: authors want their papers accepted at prestigious venues (and quickly), conferences want to present a program with many high-quality and few low-quality papers, and reviewers want to avoid being overburdened by reviews. These objectives are far from aligned, primarily because the evaluation of a submission is inherently noisy. Over the years, conferences have experimented with numerous policies to navigate the tradeoffs. These experiments include setting various bars for acceptance, varying the number of reviews per submission, requiring prior reviews to be included with resubmissions, and others. In this work, we investigate, both analytically and empirically, how well various policies work, and more importantly, why they do or do not work. We model the conference-author interactions as a Stackelberg game in which a prestigious conference commits to an acceptance policy; the authors best-respond by (re)submitting or not (re)submitting to the conference in each round of review, the alternative being a "sure accept" (such as a lightly refereed venue). Our main results include the following observations: 1) the conference should typically set a higher acceptance threshold than the actual desired quality; we call this the "resubmission gap". 2) the reviewing load is heavily driven by resubmissions of borderline papers - therefore, a judicious choice of acceptance threshold may lead to fewer reviews while incurring an acceptable loss in conference quality. 3) conference prestige, reviewer inaccuracy, and author patience increase the resubmission gap, and thus increase the review load for a fixed level of conference quality. For robustness, we further consider different models of paper quality and compare our theoretical results to simulations based on plausible parameters estimated from real data.


翻译:会议同行评审过程涉及三个不同目标的参与者:作者希望他们的论文被高声誉的会议接收(并快速接收),会议希望展现许多高质量论文和很少低质量论文的节目,而评审人则希望避免过多的评审负担。这些目标远非协调的,主要因为提交的评估本质上是噪声的。多年来,会议采用了许多政策来处理这些权衡。这些实验包括设定各种接受门槛、变化每份投稿的评审数量、要求包括先前的评审在重新提交时一起提交等。在这项工作中,我们从分析和实证方面,研究了各种政策的工作效果以及更重要的是,它们为什么有效或无效。我们将会议-作者交互建模为一个斯塔克伯格博弈,其中一场声誉高的会议承诺一项接受政策;作者在每轮评审中会做出最佳反应,重新提交或不重新提交到会议,另一种选择则是“确定接受”(如轻度仲裁的地点)。我们的主要结果包括以下观察:1)会议通常应该设置一个比实际所需质量更高的接受门槛;我们将其称为“重新提交差距”。2)评审负载受边界论文的重新提交的影响很大,因此,审慎选择接受门槛可能会导致较少的审查,同时承担可接受的会议质量损失。3)会议声誉、评估者的不准确性和作者的耐心增加了重新提交差距,从而增加了固定水平会议质量下的评审负载。为了稳健性,我们进一步考虑了不同的论文质量模型,并将我们的理论结果与基于真实数据估计的合理参数的模拟进行比较。

0
下载
关闭预览

相关内容

学术会议,包括国内外相关会议
CVPR 2023 接受论文列表发布 2360篇论文都在这了
专知会员服务
57+阅读 · 2023年4月9日
多智能体顶级会议AAMAS2022最佳论文
专知会员服务
60+阅读 · 2022年5月15日
ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
75+阅读 · 2022年1月30日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
专知会员服务
25+阅读 · 2021年4月2日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
从NeurIPS论文来看,中美学者很少互相引用
机器之心
1+阅读 · 2022年11月25日
IJCAI2022推荐系统论文集锦
机器学习与推荐算法
0+阅读 · 2022年5月20日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年8月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
27+阅读 · 2023年2月10日
A Survey on Edge Intelligence
Arxiv
50+阅读 · 2020年3月26日
VIP会员
相关VIP内容
CVPR 2023 接受论文列表发布 2360篇论文都在这了
专知会员服务
57+阅读 · 2023年4月9日
多智能体顶级会议AAMAS2022最佳论文
专知会员服务
60+阅读 · 2022年5月15日
ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
75+阅读 · 2022年1月30日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
专知会员服务
25+阅读 · 2021年4月2日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年8月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员