BAT机器学习面试1000题(771~775题)

2018 年 12 月 28 日 七月在线实验室


BAT机器学习面试1000题(771~775题)


771题

"过拟合是有监督学习的挑战,而不是无监督学习"以上说法是否正确:


A、对


B、错




点击下方空白区域查看答案

正确答案是: B


解析:

答案:B我们可以评估无监督学习方法通过无监督学习的指标,如:我们可以评估聚类模型通过调整兰德系数。




772题

下列表述中,在k-fold交叉验证中关于选择K说法正确的是:


A、较大的K并不总是好的,选择较大的K可能需要较长的时间来评估你的结果


B、相对于期望误差来说,选择较大的K会导致低偏差(因为训练folds会变得与整个数据集相似)


C、在交叉验证中通过最小化方差法来选择K值


D、以上都正确



点击下方空白区域查看答案

正确答案是:D


解析:

答案:D较大的K意味着更小的偏差(因为训练folds的大小接近整个dataset)和更多的运行时间(极限情况是:留一交叉验证)。当选取K值的时候,我们需要考虑到k-folds 准确度的方差。




773题

一个回归模型存在多重共线问题。在不损失过多信息的情况下,下列哪个操作不可取


A、移除共线的两个变量


B、移除共线的两个变量其中一个


C、我们可以计算方差膨胀因子(variance inflation factor)来检查存在的多重共线性并采取相应的措施


D、移除相关变量可能会导致信息的丢失,为了保留这些变量,我们可以使用岭回归(ridge)或lasso等回归方法对模型进行惩罚



点击下方空白区域查看答案

正确答案是:A


解析:

答案:A为了检查多重共线性,我们可以创建相关系数矩阵来辨别和移除相关系数大于75%的变量(阈值根据情况设定),除此之外,我们可以使用VIF方法来检查当前存在的共线变量。VIF<=4表明没有多种共线,VIF>=10表明有着严重的多重共线性。当然,我们也可以使用公差(tolerance)作为评估指标。但是,移除相关变量可能导致信息的丢失,为了保留这些变量,我们可以使用带惩罚的回归方法。我们也可以在相关变量之间随机加入噪音,使得变量之间存在差异。但增加噪音可能影响准确度,因此这种方法应该小心使用。





774题

评估模型之后,得出模型存在偏差,下列哪种方法可能解决这一问题:


A、减少模型中特征的数量


B、向模型中增加更多的特征


C、增加更多的数据


D、B 和 C


E、以上全是



点击下方空白区域查看答案

正确答案是: B


解析:

答案 :B高偏差意味这模型不够复杂(欠拟合),为了模型更加的强大,我们需要向特征空间中增加特征。增加样本能够降低方差




775题

在决策树中,用作分裂节点的information gain说法不正确的是


A、较小不纯度的节点需要更多的信息来区分总体


B、信息增益可以使用熵得到


C、信息增益更加倾向于选择有较多取值的属性



点击下方空白区域查看答案

正确答案是:A


解析:

使用信息增益作为决策树节点属性选择的标准,由于信息增益在类别值多的属性上计算结果大于类别值少的属性上计算结果,这将导致决策树算法偏向选择具有较多分枝的属性。




题目来源:七月在线官网(https://www.julyedu.com/)——面试题库——笔试练习——机器学习



七月在线年终大回馈

100本纸质西瓜书免费包邮送

加送售价199元的《数据挖掘》课程

长按识别下方海报二维码领取

👇


今日学习推荐

无人驾驶实战班

火热报名中

2019年2月23日开课

首次全面公开L4级别的全自动驾驶技术
从零搭建L4级自动驾驶系统
BAT一线讲师  核心算法讲解   八大实战项目



有意的亲们可以行动起来喽 

两人及两人以上组团立减100元


咨询/报名/组团可添加微信客服

julyedukefu_02

👇

长按识别二维码


如果不想错过喜欢的内容

可以顺手打个"星标”哦


操作只需要四步

简单快捷,马上学起来



 更多资讯

 请戳一戳

往期推荐

干货下载 | 中文自然语言处理 语料/数据集

GitHub标星10k,从零开始的深度学习实用教程 | PyTorch官方推荐

AI今年最大进展就是毫无进展?2019年AutoML、GAN将扛大旗

年终大回馈 | 100本纸质西瓜书免费包邮送

超级盘点 | Github年终各大排行榜(内附开源项目学习资源)

资源 | 《统计学习方法》的Python 3.6复现,实测可用(速收)

点击 “ 阅读原文 ”,进入主会场

↓↓↓ 
登录查看更多
3

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
打怪升级!2020机器学习工程师技术路线图
专知会员服务
98+阅读 · 2020年6月3日
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
340+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
BAT题库 | 机器学习面试1000题系列(第226~230题)
七月在线实验室
9+阅读 · 2017年11月27日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT机器学习面试1000题系列(第76~80题)
七月在线实验室
5+阅读 · 2017年10月13日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关VIP内容
打怪升级!2020机器学习工程师技术路线图
专知会员服务
98+阅读 · 2020年6月3日
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
340+阅读 · 2020年3月17日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
相关资讯
BAT机器学习面试1000题(721~725题)
七月在线实验室
11+阅读 · 2018年12月18日
BAT机器学习面试1000题(716~720题)
七月在线实验室
19+阅读 · 2018年12月17日
BAT机器学习面试题1000题(376~380题)
七月在线实验室
9+阅读 · 2018年8月27日
BAT机器学习面试题1000题(331~335题)
七月在线实验室
12+阅读 · 2018年8月13日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
BAT机器学习面试题及解析(266-270题)
七月在线实验室
6+阅读 · 2017年12月13日
BAT题库 | 机器学习面试1000题系列(第226~230题)
七月在线实验室
9+阅读 · 2017年11月27日
BAT题库 | 机器学习面试1000题系列(第196~200题)
七月在线实验室
17+阅读 · 2017年11月16日
BAT题库 | 机器学习面试1000题系列(第191~195题)
七月在线实验室
6+阅读 · 2017年11月15日
BAT机器学习面试1000题系列(第76~80题)
七月在线实验室
5+阅读 · 2017年10月13日
Top
微信扫码咨询专知VIP会员