20位机器之心老伙计荣登「虎榜」!排名情况, 领奖通知, 答案公示...以及 One More Thing

2022 年 2 月 11 日 机器之心
在壬寅虎年春节假期,机器之心SOTA!模型「虎卷er」行动带大家重温了 2021 年度 A 类顶会与国际性重要工作!

今天,我们来 ——
1、公布「虎卷er · 冬榜」排名情况
2、开箱「来一卷er」心意盲盒内容
3、公示 50 道「虎卷er · 年度大题」的正确答案
以及  One More Thing    ~

「虎卷er · 冬榜」排名情况

本次机器之心SOTA!模型「虎卷 er 行动」总计发布50道年度大题,每题第一次答对将获得最高得分3分,总计满分应为150分。非常尴尬的是,在答题通道解锁后我们才发现有1道大题给上漏了,为保证公平性我们决定放弃补题,故本次「虎卷 er 行动」可答问题总计49道,总计满分实际为147分。

本次答题通道的数百位答题者进行了数千次的答案提交。在所有答题者,有两位老伙计获得满分,以下为排名TOP 10 的老伙计们 ——


我们统计了所有「虎卷er」积分达到 60 分及以上的用户,形成「虎卷er · 冬榜」,具体如下 ——

    「虎卷er · 冬榜」    
区位
排名
ID
积分
 TOP5 卷er神
1
神经蛙
147
1
韩梦晨
147
3
lrd0503
144
3
欢乐马
144
3
wawcac
144
百分卷er的老伙计
3
一个轮子
144
7
jok1r
141
8
皱皱橘子皮
114
9
Eric
107
六十分卷er的老伙计
10
水查母
96
10
96
10
王雅芳
96
10
小杨小杨
96
14
MNitEBDOGE
93
15
zpc
75
16
kk
72
17
本乎本乎
69
17
五月初的珞樱
69
19
李求邱丘
66
20
用户033a2e
60
20
VXenomac
60

「来一卷er」心意盲盒开箱

「虎卷er · 冬榜」上榜的老伙计们,均将获得机器之心「SOTA!模型」、「机动组」及机器之心的合作伙伴共同准备的「来一卷er」心意盲盒,具体内容如下 ——

「虎卷er ·冬榜」 区位
终身学AI · 专业书籍
机器之心 SOTA!模型
   「小土同学搞 AI 」气氛组套装
T-shirt
贴纸
公仔
TOP5 的卷er神
3本:可选其中2本
2 件
2 套
2 只
百分卷er的老伙计
3本:可选其中1本
1件可选图案
一包随机
1 只
六十分卷er的老伙计
3本:随机
1件随机图案
一包随机
1 只

在「来一卷er」心意盲盒之外, 「虎卷er · 冬榜」 区位为TOP 5的卷er神的 6 位老伙计将获得
  • 「虎卷er · 冬榜 | TOP5 的卷er神」实体奖杯 1 个


所有「虎卷er · 冬榜」上榜老伙计均将获得 ——
  • 「虎卷er · 冬榜 | 老伙计牛吖!」区位电子证书 1 份 

  • 由昇腾CANN团队提供的由清华大学出版社出版的最新版《昇腾AI处理器CANN应用与实战——基于Atlas硬件的人工智能案例开发指南》高性能AI系统开发秘籍 1 本~

如何领取?

请以上虎榜的用户在2022年2月25日前联系我们机器之心「SOTA!模型」小助手开启「来一卷er」心意盲盒,过时自动弃领 。请扫描二维码添加「SOTA!模型助手」,小助手核对您的身份,确认为获奖用户后,将协助您完成礼品的领取~



50道「虎卷er · 年度大题」答案公示


全部50道「虎卷er · 年度大题」答案已于下方表格中标出,我们也将在机器之心SOTA!模型服务号长期放置复习资料与答案,方便老伙计们在遵循CC-BY-SA 协议的前提下使用。

春节期间没能赶上答题通道开放时间的老伙计们也可以通过机器之心公众号、机器之心SOTA!模型服务号查阅复习资料,进行自测~ 

等等,在看答案之前还有 One More Thing —— 


是的!机器之心将与阿里云天池强强联合,共同为老伙计们带来「虎卷er · 春卷er 行动」!扫码关注机器之心SOTA!模型服务号,即刻预约吧~

以下为全部50到「虎卷er · 年度大题」正确答案

1
浪潮发布的 2457 亿参数模型叫什么?
源1.0
潮1.0
涌1.0
浪1.0
2
1350 亿参数的大规模稀疏模型 MEB 是谁推出的?
清华大学
微软
百度
DeepMind
3
百度与鹏城实验室联合发布 2600 亿参数模型鹏城 - 百度 · 文心版本为?
ERNIE 1.0
ERNIE 2.0
ERNIE 3.0
ERNIE 3.0 Titan
4
Quoc Le 等来自谷歌的研究者发布的模型 FLAN,零样本性能超越小样本,它的参数量是多少?
1070 亿
1370 亿
1730 亿
2370 亿
5
阿里达摩院提出半监督视频目标分割新算法 LCM,在 DAVIS 2016 数据集以多少 Overall Score 超过先前 SOTA?
90.30%
90.70%
91.20%
91.30%
6
谷歌、罗格斯大学提出 NesT,凭借多少参数取得了超越 Swin Transformer 的性能?
62M
64M
66M
68M
7
谷歌大脑提出全新图神经网络 GKATs,它没有结合以下哪种方法?
Graph Kernels
Attention-based Networks with Structural Priors
Efficient Transformers Architectures
Dueling Network
8
百度提出的跨模态文档理解模型,登顶 DocVQA 榜首,该模型名称是?
ERNIE-UNIMO
ERNIE-ViLG
ERNIE-Layout
ERNIE-TITAN
9
微软提出的 Florence 在 ImageNet-1K 零试分类任务中 Top-1 准确率以多少的分数取得了 SOTA?
79.82
83.74
88.69
91.82
10
哪个大厂提出适用于视觉任务的大规模预训练方法 iBOT,刷新十几项 SOTA,部分指标超 MAE
阿里达摩院
字节跳动
腾讯
美团
11
35 亿参数文本生成图像新模型 GLIDE 是哪个机构推出的?
Nvidia
Megvii
Google
OpenAI
12
MIT 韩松团队提出 MUCNetV2,极大程度上解决了内存瓶颈源于什么设计导致的内存分布不平衡问题?
RNN
DNN
CNN
GNN
13
描绘了因果对机器学习的影响,并提出了该交叉领域的核心研究方向是来自哪一个团队的论文?
Geoffrey Hinton
Yoshua Bengio
Yann LeCun
John Hopcroft
14
Facebook 提出的 13 亿参数 CV 新模型 SEER 采用以下哪种方法训练?
强化学习
无监督
自监督
半监督
15
何恺明团队提出的
Random Patch Projection 是针对 Transformer 在什么学习框架中存在的训练不稳定问题?
半监督
自监督
强化学习
无监督
16
全球首个百亿参数中英文对话预训练生成模型 PLATO-XL 是基于以下哪个平台所研发的?
TensorFlow
PyTorch
PaddlePaddle
MindSpore
17
达摩院推出十万亿参数超大规模通用性人工智能大模型 M6-10T,该模型使用 512 GPU 在多少天内即训练出具有可用水平的 10 万亿模型?
5天
10天
20天
30天
18
清华刘知远、黄民烈提出的新框架 PPT 代表了什么?
Pre-trained Prompt Tuning
PowerPoint
Percentage Points
Precision Pressure Transducer
19
DeepMind 提出 2800 亿参数的 Gopher,以下哪个说法是错误的?
Gopher 以自回归 LSTM 架构为基础
DeepMind 采用 JAX 来构建训练和评估的代码库
DeepMind 结合了 bfloat16 数字格式来减少内存并增加训练吞吐量
DeepMind 使用了 Adam 优化器,所有模型的训练共有 3000 亿个 token
20
何恺明一作论文提出 Masked Autoencoders(MAE),该论文试图从下面哪几个角度研究导致自编码器在 CV 与 NLP 中表现的差异?
架构差异
信息密度差异
自编码器的解码器在文本和图像重建任务中的不同作用
以上都是
21
李飞飞等 100 多位研究者系统阐述了大规模预训练模型背后的机遇与风险,并统一给这些模型取名为?
Foundation Model
Active Model
Zero-Shot Model
Supervised Model
22
谷歌推出的视觉 Transformer 模型 ViT-G/14 的参数量属于哪种模型规模?
M(亿级)
L(百亿级)
XL(千亿级)
XXL(万亿级)
23
华为联合鹏城实验室开源的中文预训练模型盘古α 参数量属于哪种模型规模?
S(千万级)
M(亿级)
L(百亿级)
XL(千亿级)
24
生成流网络 GFlowNets 是谁提出的?
Geoffrey Hinton
Yoshua Bengio
Yann LeCun
John Hopcroft
25
谷歌推出的 Switch Transformer 参数量属于哪种模型规模?
M(亿级)
L(百亿级)
XL(千亿级)
XXL(万亿级
26
30 亿参数的 Swin Transformer V2 没有在哪个数据集下取得过 SOTA?
ImageNet
ImageNet V2
COCO test-dev
ADE20K
27
智源发布的悟道 2.0 的参数量为?
1.5 亿
1.75 亿
1.5 万亿
1.75 万亿
28
阿里达摩院发布 270 亿参数支持小说续写、诗词生成等能力的中文预训练语言模型名字是?
PUBG
PLUG
BLUG
BUPG
29
字节跳动提出 GLAT(Glancing Transformer),获 WMT 2021 大语种德英自动评估第几名?
第一名
第二名
第五名
第六名
30
谷歌推出 Switch Transformer 的模型参数量?
1.2 万亿
1.5 万亿
1.8 万亿
1.6 万亿
31
FAIR 等提出能用于视频模型的预训练方法 MaskFeat 是采用了什么训练方式?
半监督
强化学习
自监督
无监督
32
在 Yann LeCun 团队提出端到端调制检测器 MDETR 的工作中,以下哪个损失函数没有被使用?
Soft Token Prediction Loss
Text-query Contrastive Alignment Loss
Hungarian Matching Loss
GAN Least Squares Loss
33
Facebook 推出有史以来第一个赢得 WMT 的多语言模型,并击败了双语模型,该模型涵盖 14 种语言方向,其中不包括哪种语言?
German
Japanese
Korean
Chinese
34
谷歌推出通用稀疏语言模型 GLaM,小样本学习打败 GPT-3,GLaM 的模型参数量是多少?
1.2 万亿
1.3 万亿
1.4 万亿
1.5 万亿
35
微信 AI 开源的那个可以在 700 美元电脑上训练 7 亿参数的的超大预训练模型训练系统叫啥?
派大星
海绵宝宝
哆啦 A 梦
章鱼哥
36
基于对比学习的文本表示模型 ConSERT 是谁提出的?
美团
百度
饿了么
滴滴
37
微软更新 DeBERTa 模型,单个 DeBERTa 模型在 SuperGLUE 上以多少的宏平均得分首次超过人类的分值(89.8)?
90.1
90.2
90.4
90.3
38
GitHub 联合哪个组织发布了 GitHub Copilot?
FAIR
OpenAI
谷歌
DeepMind
39
开悟 MOBA 多智能体强化学习大赛以哪款游戏为测试环境?
LOL
DOTA2
王者荣耀
决战平安京
40
DeepMind 开源的 AlphaFold2 在人类蛋白质结构上的预测率是多少?
98.50%
98.80%
98.60%
98.70%
41
微软亚研院、北大提出多模态预训练模型 Nüwa,在 8 种包含图像和视频处理的下游视觉任务上具有出色的合成效果,其中不包括哪一项?
Text-To-Video
Image Prediction
Image Completion
Sketch-To-Image
42
以下哪一个机构的学者没有参与 P-tuning 的设计?
MIT
清华大学
北京智源人工智能研究院
斯坦福
43
以下哪个可能是 NLP 最新的范式?
Fully Supervised Learning, Non-Neural Network
Fully Supervised Learning, Neural Network
Pre-train, Fine-tune
Pre-train, Prompt, Predict
44
在多种翻译任务上取得了 SOTA 的词表学习方案 VOLT 是哪个机构提出的?
百度
达摩院
腾讯
字节跳动
45
为长序列时间序列预测(LSTF)设计的一个高效的模型 Informer 是基于以下哪个模型?
RNN
Transformer
GRU
LSTM
46
Swin Transformer 获得了哪个顶会的奖项?
CVPR 2021
AAAI 2021
NeurIPS 2021
ICCV 2021
47
达特茅斯学院、德克萨斯大学奥斯汀分校等提出了一个基于哪种学习的框架来减轻生成文本中的政治偏见?
强化学习
自监督学习
无监督学习
弱监督学习
48
德国马克斯 · 普朗克智能系统研究所等提出 GIRAFFE 的工作在机器之心「Pop SOTA!List for AI Developers 2021」TOP 8 中的第几?
第二
第四
第六
第八
49
IJCAI 2021 杰出论文奖之一是林雪平大学和庞培法布拉大学提出从广义规划的角度来处理经典规划问题,并学习描述整个规划领域不可解性的一阶公式。研究者是将该问题转换为什么任务进行分析?
自监督分类任务
无监督分类任务
半监督分类任务
半监督回归任务
50
比较模型生成的文本和人类生成的文本分布的散度测量方法 MAUVE 是哪个顶会的获奖论文?
ICML 2021
AAAI 2021
ACL 2021
NeurIPS 2021
登录查看更多
0

相关内容

ISAIR2022 的重要日期
专知会员服务
11+阅读 · 2022年3月15日
复旦大学联合发布《元宇宙报告(2021-2022)》(附下载)
专知会员服务
116+阅读 · 2022年1月26日
AAAI 2022接收论文列表发布,1349篇论文都在这了!
专知会员服务
144+阅读 · 2022年1月11日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
斯坦福&谷歌Jeff Dean最新Nature论文:医疗深度学习技术指南
VALSE 2022 Poster/Spotlight 征稿
VALSE
0+阅读 · 2022年3月9日
元旦快乐!提前批网申还有3天哦!
微软招聘
0+阅读 · 2021年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
0+阅读 · 2022年4月17日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
0+阅读 · 2022年4月17日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Top
微信扫码咨询专知VIP会员