面經 | 春招面試合集:騰訊/位元組/華為/東芝/360/Boss
- 2020 年 7 月 3 日
- AI
寫在前面
渣本渣,因為大數據方面我了解的太少了,所以在面試過程中很多關於大數據的問題我都回答不上來。
背景相關
碩士澳洲八大,IT。本科末流985,非IT。碩士因為跨專業,學的是Course Work,期間運氣比較好,有機會和幾位老師一起做了幾項ML相關的項目,因此畢業後找的工作都是算法相關的,希望能夠幫助到正在找工作的小夥伴。
面經
無論面試通過與否,都十分感謝在面試中遇到過的每一位面試官及HR小姐姐。大多數的面試官都非常nice,都在有意的引導我回答出正確答案。感覺面試比較玄學,面試過與不過,主要取決於基礎知識,除此之外也取決於眼緣。
騰訊算法(一面掛)
-
自我介紹 -
項目細扣 -
LSTM與RNN的區別 -
梯度消失/爆炸產生原因 -
梯度消失解決方法 -
梯度爆炸解決方法 -
Word2vec方法有哪些/區別 -
集成學習了解嗎 -
XGBOOST/GBDT簡單介紹,區別 -
無手撕
位元組跳動算法(三面掛):
一面
-
CNN中感受野/權值共享 -
Resnet理解 -
Resnet相比全連接什麼區別 -
Alexnet/VGG/Densenet/Googlenet -
什麼是梯度消失/爆炸 -
RNN/LSTM解釋 -
LSTM怎麼緩解梯度消失/Resnet怎麼緩解梯度消失 -
有什麼方法能解決梯度消失 -
集成學習 -
XGBOOST理解 -
手撕兩道: -
Two sum -
最長公共子序列(理解成子串-子串手撕一遍,子序列在子串基礎上修改)
二面
-
自我介紹 -
項目細扣 -
如何避免過擬合 -
LSTM理解 -
XGBOOST理解/損失函數/正則怎麼算 -
XGBOOST與GBDT對比/ Random Forest理解/Boosting與Bagging對比 -
為什麼XGBOOST在大賽上表現很好/與GBDT相比優勢 -
手撕兩道: -
島嶼問題 -
編輯距離
三面
-
自我介紹 -
TCP哪一層 -
HTTP/HTTPS區別 -
HTTPS為什麼Security -
線程與進程 -
鎖/悲觀鎖樂觀鎖 -
手撕一道: -
LC Hard。題目忘記了,只記得dfs+dp,撕了20多分鐘才撕出來。
360算法
一面
-
自我介紹 -
項目細扣 -
特徵工程 -
Precision/Recall/F-score/ROC/AUC -
AUC計算 -
項目為什麼選用AUC和F-score,為什麼不選用Recall -
LSTM與RNN的區別 -
梯度消失/爆炸的原因及解決方法 -
word2vec方法介紹 -
Transformer了解嗎/Bert了解嗎 -
除了神經網絡,傳統的機器學習算法了解嗎 -
Boosting和Bagging區別 -
簡單介紹下XGBOOST/GBDT -
XGBOOST和GBDT區別 -
SVM/SVM核函數 -
無手撕
二面
-
自我介紹 -
項目細扣 -
Precision/Recall/F-score/ROC/AUC -
LSTM與RNN -
CNN中怎麼做的卷積/卷積的優勢/卷積之後接什麼層/為什麼做pooling/都有哪些pooling -
卷積層/Pooling層(mean/max)的反向傳播 -
卷積層參數量計算 -
梯度消失/解決方法 -
Resnet -
XGBOOST/GBDT/SVM/RF -
特徵工程 -
學過什麼課/看了下成績單 -
MapReduce/Spark/Hive -
Mit6.824 -
手撕一道: -
記不太清了,沒有Hard那麼費勁,應該是Medium/Easy難度。
HR面
-
自我介紹 -
跨專業/Gap一年幹什麼了 -
愛好等個人問題 -
城市選擇 -
部門選擇理由 -
期望薪資 -
入職時間
華為硬件研究院算法(一面掛)
一面
-
自我介紹 -
部門介紹 -
崗位不太相符/為什麼選擇 -
各基本算法理解/時間空間複雜度 -
口述鏈表翻轉 -
手撕兩道: -
二分 -
堆排序
東芝語音識別算法
一面
-
自我介紹 -
CNN/RNN/LSTM理解 -
SVM/RF理解 -
Precision/Recall/F-scor/ROC/AUC -
語音識別算法 -
特徵工程 -無手撕
筆試
-
前四道題都不難,LC Easy難度 -
Python Keras 搭一個基本的CNN
二面(全程英文)
-
自我介紹 -
為什麼選擇東芝 -
澳洲生活 -
入職時間
花椒直播算法
一面
-
自我介紹 -
項目細扣 -
激活函數/比較 -
RNN理解 -
LSTM門控/作用/各門的激活函數選擇原因 -
SGD/BGD/momentum/Adam對比 -
Adam優點 -
Resnet理解 -
CNN各種模塊/名詞解釋 -
梯度消失/爆炸的原因/緩解方法/解決方法 -
常用的語言/庫/tensorflow-Keras/Theano/Pytorch -
卷積層/Pooling層/dense層細扣 -
集成學習/Boosting/Bagging -
XGBOOST/GBDT/Random Forest -
XGBOOST的損失函數 -
XGBOOST怎麼避免過擬合/ XGBOOST正則 -
隨機森林的隨機性體現在哪兒 -
LR/SVM理解 -
SVM核函數/作用 -
Wrangling/項目Wrangling解釋 -
無手撕
二面(相當帥的一個小哥哥/眼睛帶笑)
-
自我介紹 -
項目細扣 -
Word2vec理解/CBOW和Skip-gram對比 -
Bert -
SVM理解/手推(太久沒看了沒推出來) -
LR手推 -
XGBOOST/GBDT/Random Forest -
各模型參數解釋/不同場合不同參數的影響 -
RNN/LSTM理解/對比 -
LSTM的方向傳播 -
Kaggle比賽中LSTM及GRU的選擇 -
CNN細扣 -
手撕一道:二分
Boss直聘算法
一面(面試官小姐姐很好看)
-
自我介紹等 -
項目細扣/各種參數/方法/架構等設置及原因(非常非常細) -
主要是關於大數據方面的考核,這方面並不擅長。 -
手撕一道:大數據相關的題
面試官小姐姐非常非常nice。大數據並不擅長,小姐姐一直在引導我,人也很美!
二面
-
自我介紹 -
項目細扣 -
Word2vec理解/CBOW和Skip-gram對比 -
Bert -
SVM -
XGBOOST/GBDT/Random Forest -
激活函數 -
Optimizer對比 -
Adam優點 -
LSTM/RNN -
梯度消失/爆炸 -
項目細扣 -
無手撕
三面
-
自我介紹 -
項目細扣 -
各種真實場景下的解決思路/例如做推薦都需要哪些特徵,每種特徵該怎麼得到 -
無手撕
HR面
-
直切主題,很乾脆,nice!
尾巴
以上列出的是我能回憶起的比較有代表性的面試,其他公司例如其他互聯網企業或國企銀行等,如果有小夥伴需要也可以告訴我。除此之外,以上列出的面試經歷也有很多問題記不太清了,可能或有一定程度的缺失。
希望大家都能拿到心儀的offer,也希望大家在日後的工作中更加努力,加油,加油,加油!
– END –