【面经】字节AI Lab-NLP算法热乎面经

2020 年 3 月 29 日 深度学习自然语言处理

作者 | 我爱雪糕 
整理 | NewBeeNLP

写在前面

先说下感受吧。本人在今年3月1号(周日)投递简历,隔天周一hr就约了周四的面试,结果那天是2面视频技术面+hr面直接走完了,周五内推的学长就告诉我过了,紧接着就是offer call。整体投递+面试+发录用通知函的时间不到一周,而且面试官都是和简历对口的,整体体验非常棒。

PS:offer call里说我的leader是李航,看了看手里的小蓝书,意外的惊喜

面试的岗位是“AI Lab实习生 — 自然语言处理NLP”,一共2面技术和一面hr,这里主要说下其中的技术面试。

一面

20min简历 + 30min题

先自我介绍,然后面试官说了句“好的了解”就直接进入项目了。

我的经历主要是一些竞赛,因此也是主要聊竞赛,在竞赛细节中扣一些细节提问。竞赛主要是关于机器阅读理解MRC的(百度机器阅读、莱斯杯等),面试官也刚好懂,大致问题如下:

  1. 请你描述一下竞赛背景,以及你在其中的工作/职责。
  2. 我看你数据做了很多 预处理,这部分重要吗,具体是如何做的预处理。这个不同项目应该不太一样,不细说了。
  3. 我看你用了 word2vec的词向量,知道它是如何训练的吗,有哪些trick。这个很基础了,trick就是负采样和分层softmax。
  4. glove了解吗,elmo呢?
  5. 你把很多组件改成了transformer 的 multi-head attention,为什么要舍弃lstm的结构而选用它呢。我回答的是可并行+更强大的特征提取能力,顺便还解释了self attention的原理以及multi-head的作用。
  6. 说一下bidaf的匹配层,解释了bidaf的c2q和q2c的意义和具体做法。
  7. 你取得top2的成绩还有其他优化吗。这部分答了很多,当时吃了没用bert的亏,所以在很多方面进行了一定的优化。
  8. 你的第二个竞赛用roberta,它和bert的区别。动态mask+去除NSP+大力出奇迹(更大的batch,更多的数据,更多的step)。
  9. xlnet和bert有啥不同。自回归&&自编码的知识,其中解释了xlnet排列语言模型以及双流attention。
  10. albert了解吗?embedding层矩阵分解+参数共享 + SOP + 工程细节。

其他还有些小问题想不起来了,总体来说问的面不广,但是扣了些细节。

最后是两道算法题:

  1. 顺时针打印数组
  2. 编辑距离

很顺利的写出来了,一面结束,在线等二面。

二面

先同样是自我介绍。

然后出了一道“智力题”?

10个袋子,1000个球,你用球填充袋子,然后就固定了。现在来一个客户,无论他要1~1000哪个数量,你都能通过组装几个袋子给他。

我开始对面试官说可以动态规划:第一个袋子放1个,第二个袋子放2个,这个时候3=1+2,所以第三个袋子不用放3个,放4个;此时5=4+1,6=4+2,7=4+2+1都能组合得到,所以第四个袋子放8个,以此类推。后来一想,这不就是个1,2,4,8的等比数列吗…

因为我提到了动态规划,面试官为了使用动态规划要满足的条件是什么?什么情况下时候动态规划比较好呢?答:使用dp需要满足最优子结构性质 + 无后效性,在子问题有重叠的时候可以自顶向下的记忆化搜索,或者直接写成自底向上的dp。

问我了一个C++的问题,后来看我很懵逼,看一眼简历说哦你是会Java啊,那我们换个问题,你说一下堆和栈。我说了数据结构的堆和栈,被打断,他说是内存分配中的堆和栈。这部分答得不好。

接着是简历了,主要也是问竞赛相关,听我这些竞赛的细节,然后针对细节提问,没咋问transformer、bert相关,问了更偏传统机器学习一些, 主要是一些关于gbdt、xgb、crf。

gbdt和xgb的就不细说了。

crf部分问的很详细,例如它的具体定义?什么是马尔可夫随机场?讲讲你对crf的理解?crf和hmm的区别知道吗,为什么ner任务用crf而不是hmm?crf具体如何预测?感觉答得一般。

最后2道算法题

  1. 口述了一道算法题,我记不起来了,是一道dp题来着,反正很快想到了方法,就pass了。
  2. 安卓手机的解码方式多少种,就是那种9个点,可以上下左右、左上、左下、右上、右下连线的解锁,最少一个第一点,最多可以全连上,一个点只能用一次。我用的dfs直接做的。

PS:时间有点久了,忘了很多…

- END -


交流学习,进群备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等



登录查看更多
14

相关内容

包括微软、CMU、Stanford在内的顶级人工智能专家和学者们正在研究更复杂的任务:让机器像人类一样阅读文本,进而根据对该文本的理解来回答问题。这种阅读理解就像是让计算机来做我们高考英语的阅读理解题。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【圣经书】《强化学习导论(2nd)》电子书与代码,548页pdf
专知会员服务
201+阅读 · 2020年5月22日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
195+阅读 · 2020年3月8日
普林斯顿大学经典书《在线凸优化导论》,178页pdf
专知会员服务
184+阅读 · 2020年2月3日
【课程推荐】普林斯顿陈丹琦COS 484: 自然语言处理课程
专知会员服务
82+阅读 · 2019年12月11日
【机器学习课程】机器学习中的常识性问题
专知会员服务
74+阅读 · 2019年12月2日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
今日头条广告算法面经!
算法与数据结构
25+阅读 · 2019年5月29日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
3+阅读 · 2018年5月20日
Arxiv
4+阅读 · 2017年7月25日
VIP会员
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
今日头条广告算法面经!
算法与数据结构
25+阅读 · 2019年5月29日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
Top
微信扫码咨询专知VIP会员