AI顶会,正在使用AI来审阅AI论文

2021 年 4 月 2 日 机器之心
机器之心报道
编辑:蛋酱、泽南

近年来我们在报道 AI 顶会的文章里不断听到「史上最大」、「论文数量新高」等字眼,论文的审核俨然成了一项挑战。但既然是在研究 AI,为什么不让机器来自动解决问题?

人工智能顶会 NeurIPS 2019 的现场,曾被人吐槽像跨年夜的百货商场


对于大多数科学领域来说,期刊是同行评审和论文发表的主阵地,编辑们会根据专业判断将论文分配给合适的审稿人。但在计算机科学领域,寻找审稿人的过程通常是匆匆忙忙的:大多数论文是一次性提交给年度大会,组织者需要在仅仅一周的时间内将成千上万的论文分配给成千上万的审稿人。

这样的节奏是非常紧张的,在过去的五年内,大型 AI 会议的投稿量增长了三倍不止,也给大会主办机构带来了不小的压力。举个例子,人工智能领域最大规模的定会 NeurIPS 2020 收到了 9000 多份有效投稿,比上一年增长了 40%。组织者不得不将 3 万多个审稿任务分派给约 7000 位审稿人。NeurIPS 2020 大会主席 Marc’Aurelio Ranzato 表示:「这非常累,压力很大。」

大概也是「近水楼台先得月」,AI 顶会的审稿工作得到了 AI 的协助。首先,主办方使用了 Toronto Paper Matching System (TPMS) ,在此之前 TPMS 也被应用于其他多个会议的投递论文分配工作,它通过对比投稿论文和审稿人研究工作之间的文本,来计算投稿与审稿人专业知识之间的相关性。这个筛选过程是匹配系统中的一部分,期间审稿人也可以主动争取自己希望审阅的论文。

TPMS 架构,该系统可通过会议管理系统在线使用。

同时还有方法更加优化的 AI 软件:论文审阅平台 OpenReview 开发了一种 「亲和力评测」系统 ,借助了神经网络「Spectre」来分析论文标题和摘要。OpenReview 和麻省大学阿默斯特分校的计算机科学家 Melisa Bok 和 Haw-Shiuan Chang 表示,包括 NeurIPS 在内的一些计算机科学大会将在今年把亲和力评测系统与 TPMS 结合使用。

AI 会议的组织者希望通过提高匹配质量来推动同行评审和出版论文的质量。2014 年的一项研究表明这仍有进步空间,作为测试,当年 NeurIPS 中 10% 的投稿论文分别有两组审稿人审阅,在一组中被全部接收,另一组仅接收了 57%。影响到结果的因素可能有很多,但可以确定的是,对于具体某一篇论文来说,至少某一个小组是缺乏评估的专业知识的。

为了提升匹配质量,CMU 的计算机科学家 Ivan Stelmakh 开发了一种名为「 PeerReview4All」的算法,通常匹配系统会最大程度地提升论文和审稿人之间的平均亲和力,但有可能出现「厚此薄彼」的现象。PeerReview4All 旨在最大程度地提升最差匹配的质量,注重增加该过程的公平性。

Ivan Stelmakh 在去年的 ICML 大会使用了 PeerReview4All 进行试验,并在今年的 AAAI 大会上介绍了这一结果。他表示,该方法在不损害平均匹配质量的情况下显著提高了公平性。

具体结论可以参考 Ivan Stelmakh 所写的这篇 2 页论文: https://www.aaai.org/AAAI21Papers/DC-169.StelmakhI.pdf


OpenReview 也已经开始提供一种旨在提高公平性的系统,称为「FairFlow」。根据 NeurIPS 2021 Call for Papers 页面,今年的 NeurIPS 将使用 OpenReview 进行审稿工作。雅虎计算机科学家、NeurIPS 2021 高级程序主席 Alina Beygelzimer 表示,NeurIPS 今年将至少尝试上述中的一种匹配方法。

这些系统的作用都是将一组已知的论文与一组已知的审稿人进行匹配,但还有另外一个问题:随着 AI 领域的不断发展,顶会还需要招募、评估、培训新的审稿人。针对此,Ivan Stelmakh 正在进行一项最新实验,探索一种不依赖 AI 来减轻这些任务负担的方法。

他们在去年的 ICML 上,邀请了一些学生和刚刚毕业的人去审阅从同事那里收集的未发表论文(134 篇)。随后团队邀请了 52 位成员加入审稿人团体,并为他们分配了一位资深研究人员担任导师。最终这些新手审稿人的工作成果还不错,与那些经验丰富的审稿人相差无几。借此 Ivan Stelmakh 证明了:主办方可以在不增加负担的情况下扩招数百名审稿人,「且这些候选审稿人极具热情」。

使用亲和力来评估审稿人专业知识的匹配系统也可以让身高人们对评审一篇论文进行「招标」,最近的一些工作试图解决这种方法中的潜在偏见。我们有时会听到选论文的审核者只选择朋友的论文,这实际上是在破解算法。

今年 2 月,康奈尔大学、Facebook 一篇发在 arXiv 上的论文《Making Paper Reviewing Robust to Bid Manipulation Attacks 》描述了使用机器学习来过滤可疑论文审核竞标的过滤方法。在模拟数据集上,即使潜在作弊者知道系统的运行方式,它也可以减少操纵,而不会降低评审质量。去年在 NeurIPS 上的另一种算法《Mitigating Manipulation in Peer Review via Randomized Reviewer Assignments》实质上是对在专业领域以外的论文进行投标的人进行惩罚。

研究人员通过结合模拟竞价和上次会议的真实数据证明了其方法在减少操纵方面的有效性。

这些工具面临的问题是——你很难评估它们在实际使用过程中是不是真的优于其他方法。蒙特利尔大学计算机科学家 Laurent Charlin 表示,要想掌握确凿的证据需要进行对照试验,但现在没有任何试验。其中一部分原因是因为其中许多工具都是新的。

十年前开发 TPMS 工具的亲和性测量工具的 Charlin 表示,随着这些技术的发展,类似的方法可能会在某一天开始帮助计算机科学领域以外的同行审阅者。但是到目前为止,这种方法的应有范围还很有限。

美国科学促进会 AAAS(《Science》等杂志的主办方)发言人梅根 · 费伦(Meagan Phelan)表示 AAAS 在分配同行审阅者时没有使用 AI。

「但在人工智能领域里,」Charlin 说道,「作为一个具有一定自动化程度水平的领域。我们没有理由不使用自己的工具。」

参考内容:
https://www.sciencemag.org/news/2021/04/ai-conferences-use-ai-assign-papers-reviewers

建新·见智 —— 2021亚马逊云科技 AI 在线大会

4月22日 14:00 - 18:00


大会包括主题演讲和六大分会场。内容涵盖亚马逊机器学习实践揭秘、人工智能赋能企业数字化转型、大规模机器学习实现之道、AI 服务助力互联网快速创新、开源开放与前沿趋势、合作共赢的智能生态等诸多话题。

亚马逊云科技技术专家以及各个行业合作伙伴将现身说法,讲解 AI/ML 在实现组织高效运行过程中的巨大作用。每个热爱技术创新的 AI/ML 的爱好者及实践者都不容错过。

识别二维码或点击阅读原文,免费报名看直播。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
自然语言处理顶会COLING2020最佳论文出炉!
专知会员服务
23+阅读 · 2020年12月12日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
专知会员服务
113+阅读 · 2020年10月8日
专知会员服务
43+阅读 · 2020年7月15日
AAAI 2020放榜,8800篇提交论文创纪录,接收率20.6%
机器之心
8+阅读 · 2019年11月11日
ICLR 2019论文接收结果揭晓:24篇oral论文有没有你?
「AI寒冬论」| 风未停,猪未醒
线性资本
4+阅读 · 2018年8月27日
吴恩达:AI论文已经够多了,赶紧“搞点事”吧!
全球人工智能
4+阅读 · 2017年11月15日
吴恩达说,AI论文够多了,赶紧搞吧!
云头条
20+阅读 · 2017年11月13日
Arxiv
0+阅读 · 2021年5月29日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
4+阅读 · 2018年11月26日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关VIP内容
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
自然语言处理顶会COLING2020最佳论文出炉!
专知会员服务
23+阅读 · 2020年12月12日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
专知会员服务
113+阅读 · 2020年10月8日
专知会员服务
43+阅读 · 2020年7月15日
相关资讯
Top
微信扫码咨询专知VIP会员