BAT机器学习面试1000题(521~525题)

2018 年 10 月 15 日 七月在线实验室

点击上方     蓝字关注七月在线实验室




BAT机器学习面试1000题(521~525题)


521题

假如我们使用非线性可分的SVM目标函数作为最优化对象, 我们怎么保证模型线性可分?


A、设C=1


B、设C=0


C、设C=无穷大


D、以上都不对



点击下方空白区域查看答案

正确答案是:C


解析:

答案: CC无穷大保证了所有的线性不可分都是可以忍受的




522题

以下哪些算法, 可以用神经网络去构造:

 1. KNN

 2. 线性回归

 3. 对数几率回归


A、1和 2


B、2 和 3


C、1, 2 和 3


D、以上都不是



点击下方空白区域查看答案

正确答案是: B


解析:

答案: B 

1.KNN算法不需要训练参数, 而所有神经网络都需要训练参数, 因此神经网络帮不上忙

2. 最简单的神经网络, 感知器, 其实就是线性回归的训练

3. 我们可以用一层的神经网络构造对数几率回归




523题

请选择下面可以应用隐马尔科夫(HMM)模型的选项


A、基因序列数据集


B、电影浏览数据集


C、股票市场数据集


D、所有以上



点击下方空白区域查看答案

正确答案是:D


解析:

答案: D只要是和时间序列问题有关的 , 都可以试试HMM.





524题

我们建立一个5000个特征, 100万数据的机器学习模型. 我们怎么有效地应对这样的大数据训练 :


A、我们随机抽取一些样本, 在这些少量样本之上训练


B、我们可以试用在线机器学习算法


C、我们应用PCA算法降维, 减少特征数


D、B 和 C


E、A 和 B


F、以上所有




点击下方空白区域查看答案

正确答案是:F


解析:

样本数过多, 或者特征数过多, 而不能单机完成训练, 可以用小批量样本训练, 或者在线累计式训练, 或者主成分PCA降维方式减少特征数量再进行训练.





525题

我们想要减少数据集中的特征数, 即降维. 选择以下适合的方案 :


1.使用前向特征选择方法

2. 使用后向特征排除方法

3. 我们先把所有特征都使用, 去训练一个模型, 得到测试集上的表现. 然后我们去掉一个特征, 再去训练, 用交叉验证看看测试集上的表现. 如果表现比原来还要好, 我们可以去除这个特征. 

4. 查看相关性表, 去除相关性最高的一些特征


A、1 和 2


B、2, 3和4


C、1, 2和4


D、All



点击下方空白区域查看答案

正确答案是:D


解析:

答案: D 

1.前向特征选择方法和后向特征排除方法是我们特征选择的常用方法

2.如果前向特征选择方法和后向特征排除方法在大数据上不适用, 可以用这里第三种方法. 

3.用相关性的度量去删除多余特征, 也是一个好方法 


所以D是正确的




题目来源:七月在线官网(https://www.julyedu.com/)——面试题库——笔试练习——机器学习



七月在线也来找锦鲤喽~

我们将在

10月19日下午18:00(本周五)

抽出一只锦鲤送出:

1024元现金红包  价值2699元的【2018VIP】

锦鲤可以二选一哦

活动详情戳下面查看:

👇

我们准备了1024元现金

寻找一只爱学习的锦鲤



今日学习推荐


我们的【深度学习集训营第二期】火热报名中。从TensorFlow起步实战BAT工业项目。11月13日起正式上课,为期一个多月,努力5周,挑战年薪40万,甚至更多薪!


这么好的机会,还在等什么,报名即送三门课程,《机器学习工程师 第八期》、《深度学习 第三期》、《TensorFlow框架案例实战》,更好的助力您学习深度学习集训营课程。且2人及2人以上组团报名,可各减500元,想组团者请加微信客服:julyedukefu_02


挑战高薪,从现在开始~


 更多资讯

 请戳一戳

往期推荐

我们准备了1024元现金,寻找一只爱学习的锦鲤!

伤不起的三十岁,干不动的程序员要何去何从?

【Github 6K星】BAT头条滴滴小米等名企AI工程师笔经面经 + 算法/机器学习/深度学习/NLP资源汇总

一图概览整个深度学习的核心知识体系(建议收藏)

起薪30万,你还在愁找不到工作?

点击 【阅读原文】,免费领取大礼包~

↓↓↓ 
登录查看更多
1

相关内容

打怪升级!2020机器学习工程师技术路线图
专知会员服务
98+阅读 · 2020年6月3日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【资源】100+本免费数据科学书
专知会员服务
107+阅读 · 2020年3月17日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第161~165题)
七月在线实验室
7+阅读 · 2017年11月6日
BAT机器学习面试1000题系列(第116~120题)
七月在线实验室
16+阅读 · 2017年10月24日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
HAQ: Hardware-Aware Automated Quantization
Arxiv
6+阅读 · 2018年11月21日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
9+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
5+阅读 · 2015年9月14日
VIP会员
相关VIP内容
打怪升级!2020机器学习工程师技术路线图
专知会员服务
98+阅读 · 2020年6月3日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【资源】100+本免费数据科学书
专知会员服务
107+阅读 · 2020年3月17日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
相关资讯
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第161~165题)
七月在线实验室
7+阅读 · 2017年11月6日
BAT机器学习面试1000题系列(第116~120题)
七月在线实验室
16+阅读 · 2017年10月24日
相关论文
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
HAQ: Hardware-Aware Automated Quantization
Arxiv
6+阅读 · 2018年11月21日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
9+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
5+阅读 · 2015年9月14日
Top
微信扫码咨询专知VIP会员