面经 | NLP算法岗(百度)

2020 年 1 月 22 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要4分钟

跟随小博主,每天进步一丢丢


来自: 程序媛驿站


提前批在8月初,三面技术面没有HR面(其中三面听说是大boss面,技术人际各个方向都会涉及)

提前批可以自主投递多个部门,这时一定要找对靠谱的师兄师姐内推🤦‍♂️正式批部门不能自主选择

体验总结

a. 面试形式为电话面试,面试官小哥哥的声音也太好听了😍

b. 考察内容非常之全面,很注重基础;对于所有考察的内容,更注重理解。

c. 回答问题的思路以及速度都是考察项。


一面 

  • 自我介绍+项目

    • 项目细节

    • batchsize大或小有什么问题

    • LR怎么设置 

  • 机器学习基础:

    • L1L2正则化

    • 优化器

    • 激活函数

    • (老生常谈,不再赘述

  • python基础:

    • yeild是什么

    • 与return的区别

    • 线程进程

    • 装饰器

    • python内部实现的多线程有什么问题

      • 假的多线程

  • Linux基础:

    • AWK

    • nohup

    • 用过最复杂的linux命令是什么

  • NLP基础 :

    • word2vec  两种训练方式哪种更好?

    • 对生僻词谁更好?

    • CBOW模型中input是context(周围词)而output是中心词,训练过程中其实是在从output的loss学习周围词的信息也就是embedding,但是在中间层是average的,一共预测V(vocab size)次就够了。

    • skipgram是用中心词预测周围词,预测的时候是一对word pair,等于对每一个中心词都有K个词作为output,对于一个词的预测有K次,所以能够更有效的从context中学习信息,但是总共预测K*V词。

    • skipgram胜出✌️

  • 编程题:

    • 最长公共子序列

    • (老生常谈,不再赘述


二面 

  • 自我介绍+项目 

  • CRF作用

  • 标注的时候样本不均衡怎么办

    • 数据增强

    • 损失函数有个weight参数也可以一定程度解决这个问题 (如果正例少,损失函数的w就提高,(会提高F1 ))

  • Transformer 

  • self-attention 有什么作用(捕获依赖关系)

  • 梯度消失爆炸(CEC机制)

  • 螺旋爆炸编程题快问快答环节💥

    • 问了很多编程题,要求列出公式以及完整思路,最后选一个写出代码

    • 时间太久了 =_= 小媛只记住了这几个

    • 最大上升子序列(dp[i] = dp[j]+1 (j < i && nums[j] < nums[i]))

    • 旋转数组找K值

    • 只有01生成器,如何生成 0-3等概率,如何生成 0-k等概率(模拟二进制)

  • 各种python基础:

    • python2python3map的差别

    • 装饰器

    • 线程安全/读写锁/智能指针

  • 大文件字典:比如{abc:'aabc','cba','ccab'} mapreduce

  • Hadoop

  • 流式抽样

    • 对数据流的随机抽样

    • http://page.renren.com/601034756/note/873554062

    • 蓄水池抽样算法(Reservoir Sampling)

    • https://www.jianshu.com/p/7a9ea6ece2af

    • 1/n的概率留下当前的,手中的k个每个的概率是1/n-1

  • 跳台阶+有一次后退机会(dp[i][0/1])


三面 

  • 项目各种发散的不同的业务场景问题 * N

  • 人际需求问题

  • 上线遇到用户反馈错误怎么解决

  • 迅速学习编程语言的能力

  • 能否接受算法之外的其他工作比如开发

  • 百度内部是否还投了别的部门(因为提前批可以自主投递多个部门)

  • 面试官说后续等消息,可能要很久

  • 已经训好的模型,放到新的数据上怎么提高性能,模型不允许fintuing

  • 增量训练

  • 在线学习方法


作者:西柚媛

编辑:西柚媛




方便交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作




让更多的人知道你“在看”
登录查看更多
7

相关内容

NLP:自然语言处理
【2020新书】实战R语言4,323页pdf
专知会员服务
100+阅读 · 2020年7月1日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
55+阅读 · 2020年3月4日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
春招已近,送你一份ML算法面试大全!
机器学习算法与Python学习
10+阅读 · 2019年2月22日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
机器学习/算法19家公司面试总结(内含薪资)
深度学习世界
12+阅读 · 2017年11月14日
Python 自然语言处理(NLP)工具库汇总
数据挖掘入门与实战
7+阅读 · 2017年9月25日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
3+阅读 · 2018年5月20日
Arxiv
6+阅读 · 2018年1月14日
Arxiv
7+阅读 · 2017年12月28日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关VIP内容
【2020新书】实战R语言4,323页pdf
专知会员服务
100+阅读 · 2020年7月1日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
55+阅读 · 2020年3月4日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
相关资讯
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
面经 | 算法工程师面试题汇总
极市平台
12+阅读 · 2019年10月14日
爱奇艺深度学习算法实习生面经
算法与数据结构
9+阅读 · 2019年5月28日
旷视科技算法研究员面经(21个问答)
算法与数据结构
37+阅读 · 2019年5月8日
春招已近,送你一份ML算法面试大全!
机器学习算法与Python学习
10+阅读 · 2019年2月22日
深度学习面试100题(第41-45题)
七月在线实验室
15+阅读 · 2018年7月18日
机器学习/算法19家公司面试总结(内含薪资)
深度学习世界
12+阅读 · 2017年11月14日
Python 自然语言处理(NLP)工具库汇总
数据挖掘入门与实战
7+阅读 · 2017年9月25日
相关论文
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
3+阅读 · 2018年5月20日
Arxiv
6+阅读 · 2018年1月14日
Arxiv
7+阅读 · 2017年12月28日
Arxiv
13+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员