曲线救国 | 双非"渣硕"的秋招路

2020 年 10 月 30 日 AINLP

NewBeeNLP原创出品

作者 | 带带大兄弟


面试锦囊之面经分享系列,持续更新中 

欢迎后台回复"面试"加入讨论组交流噢 

写在前面

双非渣硕,0实习,3篇水文,三个给老板当打工仔的nlp横向项目,八月份开始准备秋招,纠结开发还是算法,开发的话菜而自知,算法也是菜而自知,最后还是头铁NLP算法。

秋招进度:投递150+,笔试50+,面试30+,offer 2,只求当咸鱼,基本躺平了

下面是我的部分面经记录,希望对后来人有帮助 

58同城

找了在58NLP工作的本科同学内推,估计HR给忘了,第一批没内推上,只赶上了第二批笔试,当时已经开奖了好多人了,感觉坑位不多。

一面

  • 自我介绍
  • 今后的事业规划、研究方向
  • 项目1:为什么选择这种模型,有尝试过其他模型吗
  • BERT的优缺点
  • PTM都了解哪些,BERT与GPT区别
  • 单项与双向在实际训练时有差别吗
  • bert的mask会带来什么缺点吗
  • 项目2:句对匹配任务
    • 每次查询都要与库里所有的数据做计算,有考虑过优化么
  • 手撕代码 :
    • 经典DP
    • 判断两个链表是否相交

ps:没给反问机会

二面

  • 自我介绍
  • 挑一个比较重点的项目开讲
    • 知识库有多大,数据是分层存储的吗
    • 数据是如何收集的
    • 问题会有子问题吗
    • 准确率怎么验证的
    • 效果会跟数据集有关系吗
    • sentence pair怎么改进的
  • CNN与RNN的区别
  • Transformer原理
  • 注意力机制有哪些种类,本身原理上起了什么作用
  • 怎么解决过拟合问题
  • BN在原理上怎么解决过拟合
  • 常用损失函数有哪些
  • 回归问题主要用哪些损失函数
  • 隐马尔可夫了解么
  • 数据不平衡怎么处理
  • 数据不平衡的损失函数有哪些
  • 交叉熵是什么原理
  • 系统搭建怎么搭建的
  • 项目3介绍
    • 评价体系是什么
  • 词向量有哪些方法
  • 分词了解么
  • 工作上的规划,地点有选择吗
  • 工程上的开发与落地有经验吗
  • 知识蒸馏是什么,通过什么方式来简化,比如albert,具体原理是什么

HR面

  • 经典HR问题
  • 反问新人培养机制

贝壳

一面

  • LDA基础知识
  • LSTM梯度消失/爆炸
  • 等等

二面

  • 自我介绍
  • 项目介绍
  • LDA主题数目确定
  • Gibbs采样和变分推断
  • GIbbs优化目标是什么
  • Gibbs采样与变分推断的优缺点
  • 常用的模型(LSTM+BERT),训练语料
  • BERT原理
  • Bert与LSTM比较
  • 样本不平衡的处理方法
  • 了解NER么
  • 统计类模型了解么  阴马
  • 编程语言用什么,C++会么
  • embedding的方法(word2vec \glove\ fasttext)
  • glove 与word2vec的区别
  • LR,SVM与XGboost了解么,介绍一下
  • GBDT,Xgboost的区别,Xgboost分布式计算是计算什么
  • 代码:写快排

HR面

  • 说一个印象最深的项目,收获
  • 今后还做这个方向么
  • 目前关注的公司
  • 对贝壳了解么
  • 可以实习么
  • 在哪个校区
  • 反问(两周之内给结果)

依图

一面

新加坡部门跨国面试

  • 是保研吗
  • 项目
  • BERT为什么有效,与其他模型相比呢
  • Transformer优点
  • 数据源如何来的,数据更新如何解决
  • embedding方式有哪些
  • word2vec训练时出现过问题吗,比如训练后的词之间的相似性不准
  • 爬虫框架用过哪些
  • 手撕代码
    • 手写字典树
    • 二叉树的遍历 递归非递归

二面

  • 自我介绍
  • 项目
    • 粗筛能过滤多少数据
    • 评测过第一步的性能么
  • BERT原理,
  • 正则化是什么,LN是什么,作用是什么
  • 过拟合手段有哪些
  • Dropout原理
  • hyperscan的原理是什么
  • 模型预测错误的数据,为什么会错,分析过么
  • sentence pairs模型中,为什么不直接用score排序
  • 为什么要选用这种模型
  • 自定义损失函数是什么,为什么要用这个
  • 手撕代码,leetcode.33

尾巴

回顾整个秋招历程,当时选择方向的时候,权衡利弊还是选择了算法岗,虽然 学历不如 双一流大佬,论文比不上A会学霸,但还是决定曲线救国,从项目方面入手,算法研究不行我就从算法落地方向找突破口,整个简历都是围绕着项目展开的,面试过程也尽量把面试官往项目上引,后期的几个面试也基本都是一个项目扣半个多小时,扣着扣着就到时了。

最后祝大家都能拿到自己想要的offer!!!!!过程虽然很曲折,但结果一定是美好的!!!

一起交流

重磅推荐!NewBeeNLP目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 面试交流 / 大厂内推 等),赶紧添加下方微信加入一起讨论学习吧!

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方"AINLP",进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

欢迎加入AINLP技术交流群
进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注NLP技术交流

推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)

从数据到模型,你可能需要1篇详实的pytorch踩坑指南

如何让Bert在finetune小数据集时更“稳”一点

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,分享、点赞、在看三选一吧🙏

登录查看更多
0

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
【人大】图实现算法综述与评测分析
专知会员服务
38+阅读 · 2020年4月28日
面向司法案件的案情知识图谱自动构建
专知会员服务
126+阅读 · 2020年4月17日
学习自然语言处理路线图
专知会员服务
139+阅读 · 2019年9月24日
字节跳动 | 推荐算法工程师面经
机器学习与推荐算法
10+阅读 · 2020年7月6日
一文看尽80道AI算法高频面试题
CVer
6+阅读 · 2020年6月17日
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
为什么所有人都报了这个虐人到哭的NLP训练营?
深度学习与NLP
26+阅读 · 2019年5月15日
这样去面试算法工程师,难怪会凉!
深度学习与NLP
3+阅读 · 2018年11月21日
RNN | RNN实践指南(3)
KingsGarden
7+阅读 · 2017年6月5日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
Arxiv
0+阅读 · 2021年1月22日
Arxiv
0+阅读 · 2021年1月21日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关资讯
字节跳动 | 推荐算法工程师面经
机器学习与推荐算法
10+阅读 · 2020年7月6日
一文看尽80道AI算法高频面试题
CVer
6+阅读 · 2020年6月17日
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
为什么所有人都报了这个虐人到哭的NLP训练营?
深度学习与NLP
26+阅读 · 2019年5月15日
这样去面试算法工程师,难怪会凉!
深度学习与NLP
3+阅读 · 2018年11月21日
RNN | RNN实践指南(3)
KingsGarden
7+阅读 · 2017年6月5日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
Top
微信扫码咨询专知VIP会员