BAT机器学习面试1000题(481~485题)

2018 年 9 月 27 日 七月在线实验室

点击上方     蓝字关注七月在线实验室




BAT机器学习面试1000题(481~485题)


481题

Nave Bayes是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是()


A、各类别的先验概率P(C)是相等的


B、以0为均值,sqr(2)/2为标准差的正态分布


C、特征变量X的各个维度是类别条件独立随机变量


D、P(X|C)是高斯分布



点击下方空白区域查看答案

正确答案是:C


解析:

朴素贝叶斯的条件就是每个变量相互独立。

来源@刘炫320,链接:http://blog.csdn.net/column/details/16442.html




482题

关于支持向量机SVM,下列说法错误的是()


A、L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力


B、Hinge 损失函数,作用是最小化经验分类错误


C、分类间隔为1/||w||,||w||代表向量的模


D、当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习



点击下方空白区域查看答案

正确答案是:C


解析:

A正确。考虑加入正则化项的原因:想象一个完美的数据集,y>1是正类,y<-1是负类,决策面y=0,加入一个y=-30的正类噪声样本,那么决策面将会变“歪”很多,分类间隔变小,泛化能力减小。加入正则项之后,对噪声样本的容错能力增强,前面提到的例子里面,决策面就会没那么“歪”了,使得分类间隔变大,提高了泛化能力。 


 B正确。 


C错误。间隔应该是2/||w||才对,后半句应该没错,向量的模通常指的就是其二范数。 


D正确。考虑软间隔的时候,C对优化问题的影响就在于把a的范围从[0,+inf]限制到了[0,C]。C越小,那么a就会越小,目标函数拉格朗日函数导数为0可以求出w=求和ai∗yi∗xi,a变小使得w变小,因此间隔2/||w||变大 


来源:@刘炫320,链接:http://blog.csdn.net/column/details/16442.html





483题

在HMM中,如果已知观察序列和产生观察序列的状态序列,那么可用以下哪种方法直接进行参数估计()  


A、EM算法


B、维特比算法


C、前向后向算法


D、极大似然估计



点击下方空白区域查看答案

正确答案是:D


解析:

EM算法: 只有观测序列,无状态序列时来学习模型参数,即Baum-Welch算法 


维特比算法: 用动态规划解决HMM的预测问题,不是参数估计 


前向后向算法:用来算概率 


极大似然估计:即观测序列和相应的状态序列都存在时的监督学习算法,用来估计参数 


注意的是在给定观测序列和对应的状态序列估计模型参数,可以利用极大似然发估计。如果给定观测序列,没有对应的状态序列,才用EM,将状态序列看不不可测的隐数据。 

来源:@刘炫320,链接:http://blog.csdn.net/column/details/16442.html





484题

在Logistic Regression 中,如果同时加入L1和L2范数,不会产生什么效果()


A、以做特征选择,并在一定程度上防止过拟合


B、能解决维度灾难问题


C、能加快计算速度


D、可以获得更准确的结果



点击下方空白区域查看答案

正确答案是:D


解析:

L1范数具有系数解的特性,但是要注意的是,L1没有选到的特征不代表不重要,原因是两个高相关性的特征可能只保留一个。如果需要确定哪个特征重要,再通过交叉验证。它的优良性质是能产生稀疏性,导致 W 中许多项变成零。 稀疏的解除了计算量上的好处之外,更重要的是更具有“可解释性”。所以能加快计算速度和缓解维数灾难. 


在代价函数后面加上正则项,L1即是Losso回归,L2是岭回归。L1范数是指向量中各个元素绝对值之和,用于特征选择。L2范数 是指向量各元素的平方和然后求平方根,用于 防止过拟合,提升模型的泛化能力。 


对于机器学习中的范数规则化,也就是L0,L1,L2范数的详细解答,请参阅《范数规则化》(链接:http://blog.csdn.net/zouxy09/article/details/24971995/)。 

来源:@刘炫320,链接:http://blog.csdn.net/column/details/16442.html




485题

机器学习中L1正则化和L2正则化的区别是?


A、使用L1可以得到稀疏的权值


B、使用L1可以得到平滑的权值


C、使用L2可以得到稀疏的权值



点击下方空白区域查看答案

正确答案是:A


解析:

L1正则化偏向于稀疏,它会自动进行特征选择,去掉一些没用的特征,也就是将这些特征对应的权重置为0. 


L2主要功能是为了防止过拟合,当要求参数越小时,说明模型越简单,而模型越简单则,越趋向于平滑,从而防止过拟合。


L1正则化/Lasso 

L1正则化将系数w的l1范数作为惩罚项加到损失函数上,由于正则项非零,这就迫使那些弱的特征所对应的系数变成0。因此L1正则化往往会使学到的模型很稀疏(系数w经常为0),这个特性使得L1正则化成为一种很好的特征选择方法。


L2正则化/Ridge regression

L2正则化将系数向量的L2范数添加到了损失函数中。由于L2惩罚项中系数是二次方的,这使得L2和L1有着诸多差异,最明显的一点就是,L2正则化会让系数的取值变得平均。


对于关联特征,这意味着他们能够获得更相近的对应系数。还是以Y=X1+X2为例,假设X1和X2具有很强的关联,如果用L1正则化,不论学到的模型是Y=X1+X2还是Y=2X1,惩罚都是一样的,都是2alpha。但是对于L2来说,第一个模型的惩罚项是2alpha,但第二个模型的是4*alpha。


可以看出,系数之和为常数时,各系数相等时惩罚是最小的,所以才有了L2会让各个系数趋于相同的特点。可以看出,L2正则化对于特征选择来说一种稳定的模型,不像L1正则化那样,系数会因为细微的数据变化而波动。所以L2正则化和L1正则化提供的价值是不同的,L2正则化对于特征理解来说更加有用:表示能力强的特征对应的系数是非零。 


因此,一句话总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。 

来源:@刘炫320,链接:http://blog.csdn.net/column/details/16442.html




题目来源:七月在线官网(https://www.julyedu.com/)——面试题库——笔试练习——机器学习



今日推荐

我们的【深度学习集训营第二期】火热报名中。从TensorFlow起步实战BAT工业项目。11月13日起正式上课,为期一个多月,努力5周,挑战年薪40万,甚至更多薪!


这么好的机会,还在等什么,报名即送三门课程,《机器学习工程师 第八期》、《深度学习 第三期》、《TensorFlow框架案例实战》,更好的助力您学习深度学习集训营课程。且2人及2人以上组团报名,可各减500元,想组团者请加微信客服:julyedukefu_02


挑战高薪,从现在开始~



 更多资讯

 请戳一戳

往期推荐

本科应届生都年薪20万了,AI人才需求到底有多大?

困扰数学界160年的“黎曼猜想”到底是什么?

这10种深度学习方法,AI从业者必备!

干货 | 一图掌握整个深度学习核心知识体系【高清下载】

2019校招面试必备,15个CNN关键回答集锦【建议收藏】

拼团,咨询,查看课程,请点击下方 【阅读原文

↓↓↓ 
登录查看更多
1

相关内容

最新《自动微分手册》77页pdf
专知会员服务
100+阅读 · 2020年6月6日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
338+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
【斯坦福&Google】面向机器人的机器学习,63页PPT
专知会员服务
24+阅读 · 2019年11月19日
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT机器学习面试1000题系列(第51~55题)
七月在线实验室
10+阅读 · 2017年10月8日
BAT机器学习面试1000题系列(第36~40题)
七月在线实验室
8+阅读 · 2017年10月3日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关VIP内容
最新《自动微分手册》77页pdf
专知会员服务
100+阅读 · 2020年6月6日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
338+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
【斯坦福&Google】面向机器人的机器学习,63页PPT
专知会员服务
24+阅读 · 2019年11月19日
相关资讯
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT机器学习面试1000题系列(第51~55题)
七月在线实验室
10+阅读 · 2017年10月8日
BAT机器学习面试1000题系列(第36~40题)
七月在线实验室
8+阅读 · 2017年10月3日
相关论文
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月22日
Top
微信扫码咨询专知VIP会员