一文看尽80道AI算法高频面试题

2020 年 6 月 17 日 CVer

2015年自从我担任当时算法组的小组leader,我作为面试官面试了不少同学。前前后后面试了超过200名同学,其中有不少入职的同学后来发展都不错,也坚定了自己对于选人的标准的自信心。


今年2020年找工作尤其艰难,我把这些年作为面试官一些重要的面试题整理出来,一共80道,希望能够帮助到大家,为了方便大家,我做了一个归类,一共分成了6大类,分别是:机器学习,特征工程,深度学习,NLP,CV,推荐系统。这些知识既是面试中的常见问题,也可以作为大家整理自己思路的参考资料。


机器学习理论类:



1.  写出全概率公式&贝叶斯公式

2.  模型训练为什么要引入偏差(bias)和方差(variance)?  证

3.  CRF/朴素贝叶斯/EM/最大熵模型/马尔科夫随机场/混合高斯模型

4.  如何解决过拟合问题?

5.  One-hot的作用是什么?为什么不直接使用数字作为表示

6.  决策树和随机森林的区别是什么?

7.  朴素贝叶斯为什么“朴素naive”?

8.  kmeans初始点除了随机选取之外的方法

9.  LR明明是分类模型为什么叫回归

10. 梯度下降如何并行化

11. 梯度下降如何并行化

12. LR中的L1/L2正则项是啥

13. 简述决策树构建过程

14. 解释Gini系数

15. 决策树的优缺点

16. 出现估计概率值为 0 怎么处理

17. 随机森林的生成过程

18. 介绍一下Boosting的思想

19. gbdt的中的tree是什么tree?有什么特征

20. xgboost对比gbdt/boosting Tree有了哪些方向上的优化

21. 什么叫最优超平面

22. 什么是支持向量

23. SVM如何解决多分类问题

24. 核函数的作用是啥



特征工程类:



1.  怎么去除DataFrame里的缺失值?

2.  特征无量纲化的常见操作方法

3.  如何对类别变量进行独热编码?

4.  如何把“年龄”字段按照我们的阈值分段?

5.  如何根据变量相关性画出热力图?

6.  如何把分布修正为类正态分布?

7.  怎么简单使用PCA来划分数据且可视化呢?

8.  怎么简单使用LDA来划分数据且可视化呢?



深度学习类:



1.  你觉得batch-normalization过程是什么样的

2.  激活函数有什么用?常见的激活函数的区别是什么?

3.  Softmax的原理是什么?有什么作用?
CNN的平移不变性是什么?如何实现的?

4.  VGG,GoogleNet,ResNet等网络之间的区别是什么?

5.  残差网络为什么能解决梯度消失的问题

6.  LSTM为什么能解决梯度消失/爆炸的问题

7.  Attention对比RNN和CNN,分别有哪点你觉得的优势

8.  写出Attention的公式

9.  Attention机制,里面的q,k,v分别代表什么

10. 为什么self-attention可以替代seq2seq



NLP类:



1.  GolVe的损失函数

2.  为什么GolVe会用的相对比W2V少

3.  层次softmax流程

4.  负采样流程

5.  怎么衡量学到的embedding的好坏

6.  阐述CRF原理

7.  详述LDA原理

8.  LDA中的主题矩阵如何计算

9.  LDA和Word2Vec区别?LDA和Doc2Vec区别

10. Bert的双向体现在什么地方

11. Bert的是怎样预训练的

12. 在数据中随机选择 15% 的标记,其中80%被换位[mask],10%不变、10%随机替换其他单词,原因是什么

13. 为什么BERT有3个嵌入层,它们都是如何实现的

14. 手写一个multi-head attention


推荐系统类:



1.  DNN与DeepFM之间的区别

2.  你在使用deepFM的时候是如何处理欠拟合和过拟合问题的

3.  deepfm的embedding初始化有什么值得注意的地方吗

4.  YoutubeNet 变长数据如何处理的

5.  YouTubeNet如何避免百万量级的softmax问题的

6.  推荐系统有哪些常见的评测指标?

7.  MLR的原理是什么?做了哪些优化?


计算机视觉(CV)类:



1.  常见的模型加速方法

2.  目标检测里如何有效解决常见的前景少背景多的问题

3.  目标检测里有什么情况是SSD、YOLOv3、Faster R-CNN等所不能解决的,假设网络拟合能力无限强

4.  ROIPool和ROIAlign的区别

5.  介绍常见的梯度下降优化方法

6.  Detection你觉的还有哪些可做的点

7.  mini-Batch SGD相对于GD有什么优点

8.  人体姿态估计主流的两个做法是啥?简单介绍下

9.  卷积的实现原理以及如何快速高效实现局部weight sharing的卷积操作方式

10. CycleGAN的生成效果为啥一般都是位置不变纹理变化,为啥不能产生不同位置的生成效果


这些问题的答案,我们给大家整理了一个资料包,大家扫码添即可领取,祝大家求职顺利~



长按扫码添加

本号只有100个名额

👇👇👇

备注【面试题】添加👆

登录查看更多
6

相关内容

面试是招聘、招生等的一个常见程序,指通过面谈来了解并评估应试者,来确定是否符合要求。
专知会员服务
42+阅读 · 2020年7月29日
深度学习批归一化及其相关算法研究进展
专知会员服务
51+阅读 · 2020年7月17日
专知会员服务
139+阅读 · 2020年5月19日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
备战AI求职季 | 100道机器学习面试题(下)
七月在线实验室
9+阅读 · 2019年3月22日
深度学习500问!一份火爆GitHub的面试手册
人工智能前沿讲习班
40+阅读 · 2019年3月18日
备战AI求职季 | 100道机器学习面试题(上)
七月在线实验室
9+阅读 · 2019年3月16日
干货 | 一文总结机器学习类面试问题与思路
THU数据派
3+阅读 · 2018年7月15日
机器学习面试题精讲(一)
七月在线实验室
4+阅读 · 2018年1月11日
深度学习面试你必须知道这些答案
AI研习社
18+阅读 · 2017年10月31日
机器学习算法比较
我爱机器学习
4+阅读 · 2016年12月11日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2020年7月29日
深度学习批归一化及其相关算法研究进展
专知会员服务
51+阅读 · 2020年7月17日
专知会员服务
139+阅读 · 2020年5月19日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
相关资讯
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
备战AI求职季 | 100道机器学习面试题(下)
七月在线实验室
9+阅读 · 2019年3月22日
深度学习500问!一份火爆GitHub的面试手册
人工智能前沿讲习班
40+阅读 · 2019年3月18日
备战AI求职季 | 100道机器学习面试题(上)
七月在线实验室
9+阅读 · 2019年3月16日
干货 | 一文总结机器学习类面试问题与思路
THU数据派
3+阅读 · 2018年7月15日
机器学习面试题精讲(一)
七月在线实验室
4+阅读 · 2018年1月11日
深度学习面试你必须知道这些答案
AI研习社
18+阅读 · 2017年10月31日
机器学习算法比较
我爱机器学习
4+阅读 · 2016年12月11日
Top
微信扫码咨询专知VIP会员