BAT机器学习面试1000题(496~500题)

2018 年 9 月 30 日 七月在线实验室

点击上方     蓝字关注七月在线实验室




BAT机器学习面试1000题(496~500题)


496题

下面哪个/些超参数的增加可能会造成随机森林数据过拟合?


A、树的数量


B、树的深度


C、学习速率



点击下方空白区域查看答案

正确答案是: B


解析:

答案为(B):通常情况下,我们增加树的深度有可能会造成模型过拟合。学习速率并不是随机森林的超参数。增加树的数量可能会造成欠拟合。




497题

下列哪个不属于常用的文本分类的特征选择算法?


A、卡方检验值


B、互信息


C、信息增益


D、主成分分析



点击下方空白区域查看答案

正确答案是:D

解析:

常采用特征选择方法。常见的六种特征选择方法: 

1)DF(Document Frequency) 文档频率DF:统计特征词出现的文档数量,用来衡量某个特征词的重要性 


2)MI(Mutual Information) 互信息法互信息法用于衡量特征词与文档类别直接的信息量。如果某个特征词的频率很低,那么互信息得分就会很大,因此互信息法倾向"低频"的特征词。相对的词频很高的词,得分就会变低,如果这词携带了很高的信息量,互信息法就会变得低效。 


3)(Information Gain) 信息增益法通过某个特征词的缺失与存在的两种情况下,语料中前后信息的增加,衡量某个特征词的重要性。 


4)CHI(Chi-square) 卡方检验法利用了统计学中的"假设检验"的基本思想:首先假设特征词与类别直接是不相关的如果利用CHI分布计算出的检验值偏离阈值越大,那么更有信心否定原假设,接受原假设的备则假设:特征词与类别有着很高的关联度。 


5)WLLR(Weighted Log Likelihood Ration)加权对数似然 


6)WFO(Weighted Frequency and Odds)加权频率和可能性 

本题解析来源:http://blog.csdn.net/ztf312/article/details/50890099





498题

机器学习中做特征选择时,可能用到的方法有?


A、卡方


B、信息增益


C、平均互信息


D、期望交叉熵


E、以上都有



点击下方空白区域查看答案

正确答案是:E





499题

下列方法中,不可以用于特征降维的方法包括


A、主成分分析PCA


B、线性判别分析LDA


C、深度学习SparseAutoEncoder


D、矩阵奇异值分解SVD



点击下方空白区域查看答案

正确答案是:C


解析:

特征降维方法主要有:PCA,LLE,Isomap 


SVD和PCA类似,也可以看成一种降维方法 


LDA:线性判别分析,可用于降维 


AutoEncoder:AutoEncoder的结构与神经网络的隐含层相同,由输入L1,输出  L2组成,中间则是权重连接。


Autoencoder通过L2得到输入的重构L3,最小化L3与L1的差别  进行训练得到权重。在这样的权重参数下,得到的L2可以尽可能的保存L1的信息。 


Autoencoder的输出L2的维度由输出的神经元个数决定。当输出维度大于L1时,则需要在训练目标函数中加入sparse  惩罚项,避免L2直接复制L1(权重全为1)。所以称为sparseAutoencoder( Andrew Ng提出的)。 


结论:SparseAutoencoder大多数情况下都是升维的,所以称之为特征降维的方法不准确。




500题

下列哪些不特别适合用来对高维数据进行降维


A、LASSO


B、主成分分析法


C、聚类分析


D、小波分析法


E、线性判别法


F、拉普拉斯特征映射



点击下方空白区域查看答案

正确答案是:C

解析:

lasso通过参数缩减达到降维的目的; 

pca就不用说了 

线性鉴别法即LDA通过找到一个空间使得类内距离最小类间距离最大所以可以看做是降维; 

小波分析有一些变换的操作降低其他干扰可以看做是降维拉普拉斯请看这个http://f.dataguru.cn/thread-287243-1-1.html




题目来源:七月在线官网(https://www.julyedu.com/)——面试题库——笔试练习——机器学习



今日推荐

我们的【深度学习集训营第二期】火热报名中。从TensorFlow起步实战BAT工业项目。11月13日起正式上课,为期一个多月,努力5周,挑战年薪40万,甚至更多薪!


今天最后一天优惠价,明天10.1将涨价500元!有意的亲们抓紧时间喽,报名即送三门课程,《机器学习工程师 第八期》、《深度学习 第三期》、《TensorFlow框架案例实战》,更好的助力您学习深度学习集训营课程。且2人及2人以上组团报名,可各减500元,想组团者请加微信客服:julyedukefu_02


挑战高薪,从现在开始~



 更多资讯

 请戳一戳

往期推荐

11个 AI 和机器学习模型的开源框架,做项目一定用的上!

作为一个开发,我犯过的错……

机器学习实践难?这10个小秘诀必须知道!

本科应届生都年薪20万了,AI人才需求到底有多大?

困扰数学界160年的“黎曼猜想”到底是什么?

这10种深度学习方法,AI从业者必备!

拼团,咨询,查看课程,请点击下方 【阅读原文

↓↓↓ 
登录查看更多
1

相关内容

互信息(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性.
【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
331+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
347+阅读 · 2020年2月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
143+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
162+阅读 · 2019年12月2日
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT题库 | 机器学习面试1000题系列(第161~165题)
七月在线实验室
7+阅读 · 2017年11月6日
BAT机器学习面试1000题系列(第116~120题)
七月在线实验室
16+阅读 · 2017年10月24日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
6+阅读 · 2018年3月12日
VIP会员
相关资讯
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT题库 | 机器学习面试1000题系列(第211~215题)
七月在线实验室
9+阅读 · 2017年11月22日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT题库 | 机器学习面试1000题系列(第161~165题)
七月在线实验室
7+阅读 · 2017年11月6日
BAT机器学习面试1000题系列(第116~120题)
七月在线实验室
16+阅读 · 2017年10月24日
相关论文
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
6+阅读 · 2018年3月12日
Top
微信扫码咨询专知VIP会员