【面经】字节跳动 算法面试复盘

2020 年 5 月 13 日 深度学习自然语言处理


作者 | 陈以二
整理 | NewBeeNLP

写在前面

字节跳动是一直想去实习的公司,3月份的时候觉得自己学的还不够扎实,暂时没有投简历。4月14号在官网投了简历,4月15号就有小姐姐打电话预约面试时间,今天下午面试。

非本计算机专业出身,在研究生阶段做过基于机器学习和CNN的目标识别。没论文,没竞赛,只有所里的公司实习。编码方面也有些生疏,其实劣势蛮大的。

一面(约1h)

一面面试官是很亲切的小哥哥。在我回答问题的时候一直微笑点头,让我也不那么紧张了。

  • 自我介绍:姓名,年龄,本科和硕士学校,专业,相关经历,来这里实习的原因。
  • 讲一下熟悉的模型:说了项目里用到的RF,从特征构建、特征选择、模型选择、到模型调优。
  • 为什么选了RF?:项目里更关注性能和计算量的平衡,RF相对可控。
  • 用的什么指标进行衡量的?:一开始是acc,但是对于不平衡数据不够准确,后来基于混淆矩阵计算了一些指标。
  • 不平衡应该怎么做?:过多数据欠采样,过少数据过采样,另外还有一些基于模型的方法比如SMOTE方法等。
  • RF和GBDT的区别是什么?:都是集成方法,分别是Bagging和Boosting,并行和串行。
  • GBDT可以并行吗?:原理上是不行的,这也是训练过程比RF慢的原因。但是XgBoost作为GBDT的一种工程实现方法,在决策树的构建过程中加入了部分并行技巧,加快了速度。
  • GBDT和XgBoost的区别是什么呢?:XgBoost是GBDT的一个工程实现。1)在树的构建过程中加入了一些并行技巧;2)GBDT本身是没有预剪枝等过程的,XgBoost在构建的过程中加入了一些正则,起到了缓解过拟合的作用。
  • (因为提到了CNN相关的东西)ResNet的结构特点以及解决的问题是什么?:ResNet之前,大多认为深度越深,性能越好实际上不是,会出现信息消逝的情况。ResNet提出了“捷径”概念,将浅处的输出牵到深处,形成一个残差,相当于把信息又往深了传递了一下。
  • 了解BN吗?:为了解决网络中数据分布变化大,学习过程慢的问题。采用标准化,又引入两个可学习的参数来重建浅层网络学到的分布。
  • 编程题,构建哈夫曼树:本身不了解哈夫曼树,但是了解哈夫曼编码的一些思想,讲出来后,小哥哥引导着思路,然后我写出了代码。代码本身还有优化空间,但是小哥哥也说通过了。
  • 反问。

让我稍等下一面。

一面总结:
其实一面里问到的东西都还是偏基础的,基本上问题问出来后,一次回答就够了。面试官会再从回答中牵扯到的知识点问起。主要针对做过的项目提问。

二面(约1h)

二面是个小姐姐面的。难度也确实比一面更难些,问的更细了。

  • 自我介绍。同上
  • 介绍RF和GBDT:串行并行角度。GBDT是残差学习角度。
  • GBDT具体细节:大致说了下思路,感觉答的不是很详细。
  • 挑一个熟悉的项目说一下:RF提特征、选特征、调参、评估。
  • 有自己手写代码实现过RF吗?:没有....(得去看看了
  • 特征选择里提到的互信息选择,互信息的计算公式是什么?:忘记了..
  • 为什么选择了RF呢?RF由DT组成,有一定的解释性,性能和计算量相对可控。
  • 对于RF可解释性这一点,做了什么相关实验吗?:突然想到RF本身引入了随机性,可解释性没有很强,就说到对于里面的树的路径可以进行分析得到特征重要性。(这部分有点忘记了,赶紧补充学习)
  • DT了解吗?:知道的有ID3,C4.5,CART树,分别用信息增益,信息增益比,基尼系数作为启发函数。
  • 写出信息增益的表达式:直接在代码编译器中写,有点慌了,写出来的公式不够清晰,讲的时候也讲的不是很好...
  • 代码写一个决策树,给定数据,启发函数是信息增益,假设所有特征的值都是数值类型的:定义节点类、构建节点、选取当前节点的最优划分特征(计算所有特征的信息增益)、数据划分、构建子节点、考虑停止划分的条件。花了好长时间写了个代码框架,然后和面试官讲了思路。
  • 写的决策树是几叉树?:暂时考虑的是有多少种不同的取值就有多少个分支,意识到这肯定是不对的,优化的话可以将所有取值进行划分,比如二划分就可以改成二叉树。
  • 反问

二面总结:
确实比一面的时候挖的更深了,不仅问原理,还会问“你具体是怎么做的?”。如果说一面的问题是各种参考书里热门的话题的话,二面的问题会在此基础上深挖,挖到不那么热门但是细节上很重要的问题,会强调具体实现。

HR面

小姐姐很温柔,聊了28分钟的天,主要涉及到的话题:

  • 什么时候可以来实习?
  • 现在可远程办公,是否考虑转为日常实习?
  • 是主动官网投递还是在实习僧等网站投递?
  • 对搜索部门有了解吗?
  • 聊聊之前实习过程的内容,以及遇到的难点,怎么解决的?
  • 自己的优点和缺点是什么?优势是什么?
  • 有什么职业规划吗?
  • 为什么说喜欢字节呢?有哪些了解?:因为的确挺喜欢的,从氛围、技术、个人发展、城市这几个角度说了下。
  • 还有别的投递和Offer吗?:如实回答了。

总结&反思

字节面试的整体氛围还是很棒的,面试官会边出题边引导,能缓解紧张情绪;

很多公式记的不牢,还需要理解更深入些,记得更牢些;GBDT相关的细节需要再进步写;特征选择因为做的比较久远,有些忘记了,需要赶紧总结回忆;编码题没有要求Bug Free,但是本身编码上还需要加强。需要学习NPL相关的东西。自己简历上的东西还需要再升级些。

- END -



投稿或交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


登录查看更多
1

相关内容

GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
21+阅读 · 2020年4月12日
《代码整洁之道》:5大基本要点
专知会员服务
49+阅读 · 2020年3月3日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
211+阅读 · 2020年2月21日
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
作为字节跳动的研发面试官,有些话我不得不说!
互联网架构师
12+阅读 · 2019年4月22日
深度学习面试100题(第56-60题)
七月在线实验室
9+阅读 · 2018年7月23日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
BAT题库 | 机器学习面试1000题系列(第226~230题)
七月在线实验室
9+阅读 · 2017年11月27日
EfficientDet: Scalable and Efficient Object Detection
Arxiv
6+阅读 · 2019年11月20日
SlowFast Networks for Video Recognition
Arxiv
19+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月22日
Arxiv
6+阅读 · 2018年2月8日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年11月14日
VIP会员
相关资讯
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
作为字节跳动的研发面试官,有些话我不得不说!
互联网架构师
12+阅读 · 2019年4月22日
深度学习面试100题(第56-60题)
七月在线实验室
9+阅读 · 2018年7月23日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
BAT题库 | 机器学习面试1000题系列(第226~230题)
七月在线实验室
9+阅读 · 2017年11月27日
Top
微信扫码咨询专知VIP会员