面经 | 春招面试合集:腾讯/字节/华为/东芝/360/Boss
- 2020 年 7 月 3 日
- AI
写在前面
渣本渣,因为大数据方面我了解的太少了,所以在面试过程中很多关于大数据的问题我都回答不上来。
背景相关
硕士澳洲八大,IT。本科末流985,非IT。硕士因为跨专业,学的是Course Work,期间运气比较好,有机会和几位老师一起做了几项ML相关的项目,因此毕业后找的工作都是算法相关的,希望能够帮助到正在找工作的小伙伴。
面经
无论面试通过与否,都十分感谢在面试中遇到过的每一位面试官及HR小姐姐。大多数的面试官都非常nice,都在有意的引导我回答出正确答案。感觉面试比较玄学,面试过与不过,主要取决于基础知识,除此之外也取决于眼缘。
腾讯算法(一面挂)
-
自我介绍 -
项目细扣 -
LSTM与RNN的区别 -
梯度消失/爆炸产生原因 -
梯度消失解决方法 -
梯度爆炸解决方法 -
Word2vec方法有哪些/区别 -
集成学习了解吗 -
XGBOOST/GBDT简单介绍,区别 -
无手撕
字节跳动算法(三面挂):
一面
-
CNN中感受野/权值共享 -
Resnet理解 -
Resnet相比全连接什么区别 -
Alexnet/VGG/Densenet/Googlenet -
什么是梯度消失/爆炸 -
RNN/LSTM解释 -
LSTM怎么缓解梯度消失/Resnet怎么缓解梯度消失 -
有什么方法能解决梯度消失 -
集成学习 -
XGBOOST理解 -
手撕两道: -
Two sum -
最长公共子序列(理解成子串-子串手撕一遍,子序列在子串基础上修改)
二面
-
自我介绍 -
项目细扣 -
如何避免过拟合 -
LSTM理解 -
XGBOOST理解/损失函数/正则怎么算 -
XGBOOST与GBDT对比/ Random Forest理解/Boosting与Bagging对比 -
为什么XGBOOST在大赛上表现很好/与GBDT相比优势 -
手撕两道: -
岛屿问题 -
编辑距离
三面
-
自我介绍 -
TCP哪一层 -
HTTP/HTTPS区别 -
HTTPS为什么Security -
线程与进程 -
锁/悲观锁乐观锁 -
手撕一道: -
LC Hard。题目忘记了,只记得dfs+dp,撕了20多分钟才撕出来。
360算法
一面
-
自我介绍 -
项目细扣 -
特征工程 -
Precision/Recall/F-score/ROC/AUC -
AUC计算 -
项目为什么选用AUC和F-score,为什么不选用Recall -
LSTM与RNN的区别 -
梯度消失/爆炸的原因及解决方法 -
word2vec方法介绍 -
Transformer了解吗/Bert了解吗 -
除了神经网络,传统的机器学习算法了解吗 -
Boosting和Bagging区别 -
简单介绍下XGBOOST/GBDT -
XGBOOST和GBDT区别 -
SVM/SVM核函数 -
无手撕
二面
-
自我介绍 -
项目细扣 -
Precision/Recall/F-score/ROC/AUC -
LSTM与RNN -
CNN中怎么做的卷积/卷积的优势/卷积之后接什么层/为什么做pooling/都有哪些pooling -
卷积层/Pooling层(mean/max)的反向传播 -
卷积层参数量计算 -
梯度消失/解决方法 -
Resnet -
XGBOOST/GBDT/SVM/RF -
特征工程 -
学过什么课/看了下成绩单 -
MapReduce/Spark/Hive -
Mit6.824 -
手撕一道: -
记不太清了,没有Hard那么费劲,应该是Medium/Easy难度。
HR面
-
自我介绍 -
跨专业/Gap一年干什么了 -
爱好等个人问题 -
城市选择 -
部门选择理由 -
期望薪资 -
入职时间
华为硬件研究院算法(一面挂)
一面
-
自我介绍 -
部门介绍 -
岗位不太相符/为什么选择 -
各基本算法理解/时间空间复杂度 -
口述链表翻转 -
手撕两道: -
二分 -
堆排序
东芝语音识别算法
一面
-
自我介绍 -
CNN/RNN/LSTM理解 -
SVM/RF理解 -
Precision/Recall/F-scor/ROC/AUC -
语音识别算法 -
特征工程 -无手撕
笔试
-
前四道题都不难,LC Easy难度 -
Python Keras 搭一个基本的CNN
二面(全程英文)
-
自我介绍 -
为什么选择东芝 -
澳洲生活 -
入职时间
花椒直播算法
一面
-
自我介绍 -
项目细扣 -
激活函数/比较 -
RNN理解 -
LSTM门控/作用/各门的激活函数选择原因 -
SGD/BGD/momentum/Adam对比 -
Adam优点 -
Resnet理解 -
CNN各种模块/名词解释 -
梯度消失/爆炸的原因/缓解方法/解决方法 -
常用的语言/库/tensorflow-Keras/Theano/Pytorch -
卷积层/Pooling层/dense层细扣 -
集成学习/Boosting/Bagging -
XGBOOST/GBDT/Random Forest -
XGBOOST的损失函数 -
XGBOOST怎么避免过拟合/ XGBOOST正则 -
随机森林的随机性体现在哪儿 -
LR/SVM理解 -
SVM核函数/作用 -
Wrangling/项目Wrangling解释 -
无手撕
二面(相当帅的一个小哥哥/眼睛带笑)
-
自我介绍 -
项目细扣 -
Word2vec理解/CBOW和Skip-gram对比 -
Bert -
SVM理解/手推(太久没看了没推出来) -
LR手推 -
XGBOOST/GBDT/Random Forest -
各模型参数解释/不同场合不同参数的影响 -
RNN/LSTM理解/对比 -
LSTM的方向传播 -
Kaggle比赛中LSTM及GRU的选择 -
CNN细扣 -
手撕一道:二分
Boss直聘算法
一面(面试官小姐姐很好看)
-
自我介绍等 -
项目细扣/各种参数/方法/架构等设置及原因(非常非常细) -
主要是关于大数据方面的考核,这方面并不擅长。 -
手撕一道:大数据相关的题
面试官小姐姐非常非常nice。大数据并不擅长,小姐姐一直在引导我,人也很美!
二面
-
自我介绍 -
项目细扣 -
Word2vec理解/CBOW和Skip-gram对比 -
Bert -
SVM -
XGBOOST/GBDT/Random Forest -
激活函数 -
Optimizer对比 -
Adam优点 -
LSTM/RNN -
梯度消失/爆炸 -
项目细扣 -
无手撕
三面
-
自我介绍 -
项目细扣 -
各种真实场景下的解决思路/例如做推荐都需要哪些特征,每种特征该怎么得到 -
无手撕
HR面
-
直切主题,很干脆,nice!
尾巴
以上列出的是我能回忆起的比较有代表性的面试,其他公司例如其他互联网企业或国企银行等,如果有小伙伴需要也可以告诉我。除此之外,以上列出的面试经历也有很多问题记不太清了,可能或有一定程度的缺失。
希望大家都能拿到心仪的offer,也希望大家在日后的工作中更加努力,加油,加油,加油!
– END –