清华作者排名第一,多人中稿超十篇:NeurIPS 2022统计数据出炉

2022 年 10 月 24 日 THU数据派


  
  
    
来源:机器之心

  本文为约1036字,建议阅读2分钟

本文介绍 了全球最负盛名的 AI 学术会议之一NeurIPS统计结果,本届大会清华大学成绩亮眼。


NeurIPS 已经成为名副其实的万人大会——不仅观众数量上万,投稿数量也上万。


作为当前全球最负盛名的 AI 学术会议之一,NeurIPS 是每年学界的重要事件,通常在每年 12 月举办。大会讨论的内容包含深度学习、计算机视觉、大规模机器学习、学习理论、优化、稀疏理论等众多细分领域。


今年 NeurIPS 已是第 36 届,将于 11 月 28 日至 12 月 9 日举行,为期两周。第一周将在美国新奥尔良 Ernest N. Morial 会议中心举行现场会议,第二周改为线上会议。



9 月下旬,NeurIPS 公布了今年的论文接收情况,今年各界一共提交了 10411 篇论文,2672 篇获接收,最终接收率为 25.6%,相比去年,投稿数量继续增加。


昨日,苏黎世联邦理工学院数据科学博士 Sanagno 汇总了 NeurIPS 2022 相关的信息,包括个人中稿量排行机构中稿量排行以及论文标题和摘要中出现最多的词汇


项目地址:https://github.com/sanagno/neurips_2022_statistics


首先是个人中稿量排行,其中排名第一的是马克斯 · 普朗克智能系统研究所所长 Bernhard Schölkopf,接收了 13 篇;


并列第二的分别有斯坦福大学计算机科学系副教授 Stefano Ermon、德克萨斯州大学奥斯汀分校助理教授 Zhangyang Wang 和加州大学伯克利分校副教授 Sergey Levine,接收了 12 篇。


并列第三的分别有悉尼大学人工智能中心主任刘同亮(Tongliang Liu)、洛桑联邦理工学院 LIONS 实验室副教授 Volkan Cevher、香港浸会大学计算机科学助理教授韩波(Bo Han)、上海交通大学副教授严骏驰(Junchi Yan)和伊利诺伊大学厄巴纳 - 香槟分校助理教授 Bo Li,接收了 11 篇。


其次是机构中稿量排行,除了无归属机构(no affiliation)之外,排名前三的依次为清华、斯坦福和加州大学



另有一个统计结果显示,如果仅看第一作者,则清华大学有 85 篇是排名第一的机构,斯坦福大学和谷歌位居二三位。


来源 https://github.com/SGEthan/NeurIPS2022_Paper_Retrieving


最后,标题中出现词汇最多的前五名依次为 Multi、Training、Self、Optimal 和 Learning,摘要中依次为 learning、model、data、models 和 methods。



——END——


登录查看更多
0

相关内容

神经信息处理系统年会(Annual Conference on Neural Information Processing Systems)的目的是促进有关神经信息处理系统生物学,技术,数学和理论方面的研究交流。核心重点是在同行会议上介绍和讨论的同行评审新颖研究,以及各自领域的领导人邀请的演讲。在周日的世博会上,我们的顶级行业赞助商将就具有学术意义的主题进行讲座,小组讨论,演示和研讨会。星期一是教程,涵盖了当前的问询,亲和力小组会议以及开幕式演讲和招待会的广泛背景。一般会议在星期二至星期四举行,包括演讲,海报和示范。 官网地址:http://dblp.uni-trier.de/db/conf/nips/
NeurIPS 2022杰出论文奖项公布!AlexNet获时间检验奖
专知会员服务
14+阅读 · 2022年11月22日
NeurIPS 2022接收论文列表发布,2600多篇论文都在这了!
专知会员服务
86+阅读 · 2022年9月17日
ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
75+阅读 · 2022年1月30日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
一次性中超十篇NeurIPS'22
图与推荐
0+阅读 · 2022年10月26日
AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜
新智元
12+阅读 · 2019年1月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年12月15日
Arxiv
0+阅读 · 2022年12月14日
Arxiv
12+阅读 · 2021年6月29日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Knowledge Representation Learning: A Quantitative Review
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员