说下自己的背景,海外渣硕毕业,目标岗位主要是“机器学习”或者“图像处理”。当了学生20余年,没有实习经历,没有实验室大佬带着做顶会论文(甚至没有加入实验室,海外硕士是授课型的,并非研究型),唯一能让简历不那么难看的就是几次Kaggle竞赛。
跑题了跑题了,聊聊校招求职经验分享吧。写到这的时候,秋招现在刚刚准备开始,提前批感觉快结束了,不过提前批和正式批可以一起看待,毕竟简历已经到公司那边了,万一秋招被捞了呢?目前投递了:字节、oppo、vivo、京东、猿辅导、大华、英特尔、作业帮等。但是投递之后还在等待面试的通知。目前感觉字节、vivo、百度的提前批的简历关都过不了,真的太打击人了的信心了,真是太让人焦虑了,哎(不知道有没有一样的小伙伴,简历一直在“筛选简历”阶段,【哭】)。
在更早的时候,记得投递的是华为和阿里。面华为的时候偶然认识了一个前辈,非常的友好。当时投递之后,笔试一面二面HR面很快就结束了,offer下的特别快。(这里只能推荐一下大家可以报名华为呀~华为AI技术岗虽然不比BAT字节,但是讲道理也是非常不错的。)阿里的面试的时候一面挂掉了,现在想想,就是当时准备的不好,很多问题我都知道,我都整理过文章,但是我都忘记了。也就是从这之后,我决定,要整理一个系列文章,然后在每一次的面试之前,把所有写过的知识都读一遍,这样避免两次死在同一个地方。(自己都吐槽自己:醒醒吧孩子,你连面试机会都还没有2333)
这两年求职互联网的年轻人压力山大,反倒不是在于有没有offer的焦虑(虽然这也是占了很大一部分),而是自己内心对自己能力的肯定的焦虑。感觉自己现在是刚从学校出来的一个不是那种人们口中的大佬的普通学生,顶多算是一个上进的学生。但是AI岗位应聘中,我总感觉,对学生时代学习内容的考察并不多。面试有点像是一次额外的考试,一次并不是对你之前学生时代学习内容的考核。因此年轻人求职一般焦虑在于自己之前学习的内容,到底对自己的人生是否有益,之前在学校花费的时间,是否真的仅仅为了文凭,是否空度了大把的学生时代的光阴。 大多数人都害怕自己已经远远落后于被应聘者群体的最低水平,担忧其实自己才是最差的那个。
回到现实,我能做什么?面试需要什么我就做什么。
面试必然会有算法题,所以我现在在牛客网上在一点一点刷《剑指Offer》。看了网上那么多经验加上自己的感觉,如果你会“动态规划”和“二分法”,再加上一些基础的python编程能力,就能应付80%的算法题了。面试的时候不慌张,能正常发挥实力就能应付剩下10%的题。最后10%其实才是刷题的目的,查漏补缺。
今年,去年,有大量的相关的面经。慢慢看吧,面试的算法其实并不多,题目重复率非常大。现在就是,我看面经看到不会的题,就上网找相关资料,看十几篇文章之后,学懂了。然后把学懂得内容加上自己的理解写成自己的学习笔记,记录下来。方便面试前的突击复习。
目前我能想到要做的也就这些了。虽然面试不一定那么顺利,但是自己总要前行的。秋招战役刚刚打响第一枪,就算自己只是一个默默无闻的小兵,也要在默默无闻的每一天中做好自己的事情。加油呀!
欢迎大家一起交流学习共勉,解决焦虑的最好办法就是面对他------奥力给!
问了问比赛经历,进而问道了LightGBM模型,然后提到了XGB模型,问了两者的区别。
解决过拟合的办法;
你了解U-net吗?
处理过工业图像或者医学图像的经历吗
决策树相关;
还有两道不难的编程算法题
【阿里】:
GBDT是什么;
梯度消失梯度爆炸的产生与解决方法;
决策树如何分裂的;
BN层的用处;
lightGBM的算法;
python的sort排序是如何实现的?
你会什么排序算法吗?回答了快排
【总结】:这次的面试所有题目我都整理过文章,但是没背住。当时后悔到肠子都青了,应该进行考前复习的。
项目
XGBoost的并行优化的两种方法;
LightGBM的优势
比赛中和top3的方案的区别,如果让我重新做这个项目,我会做出哪些优化。
处理时间序列的模型有哪些
对优化方法是否了解。牛顿法和梯度下降法。
如何处理过拟合问题
如何处理梯度爆炸问题
模型的参数过大会导致什么问题,怎么解决
如何处理样本不均衡的问题
在研究生期间的项目
算法题1:一个数组找到其中的和最大的子数组
算法题2:一个数字中找到其中所有不重复的元素
开放题:假设有1000个人同时定了外卖,有100个骑手,你要如何处理这个问题。
主要问了一些项目的问题,让我描述做的项目,项目中的创新等;
然后让我介绍了一下GBDT,XGB和LGB的算法与区别;
然后还想问我一个深度学习方面的算法,比如卷积网络。这部分回答的比较模糊,就简单的讲了讲GoogLeNet和Resnet网络结构的特点;
池化层的作用;
参加的竞赛与top3解决方案的区别。(这个是因为我的项目中与top3的解决方案中有一个共同点提了一嘴)
归一化的方法中,BN与LN的区别;
线性分类模型有哪些?介绍一下优缺点
然后我还问了一下总共有多少面试,她说四五个吧。惊了。
【百度一面】:
逻辑回归LR的损失函数推导;
SVM模型的推导;
GBDT模型;
k-means的算法;
【忘记哪个面试的题】
已知二叉树前序中序,让你输出二叉树的后序;
python中lambda和def定义函数的区别;
python中list的原理;
BN层很重要,感觉被问了两次。
项目
LightGBM和XGBoost的区别
GBDT模型和XGB的区别
LGB做了哪些优化
为什么选择他们的公司
以上来自一位积极努力的学弟,欢迎大家更好地交流,祝大家心想事成,多多加油!
看完本文,你有什么看法呢,欢迎交流~
推荐阅读
征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)
完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化
斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
阅读至此了,分享、点赞、在看三选一吧🙏