面經 | 春招面試合集:騰訊/位元組/華為/東芝/360/Boss

  • 2020 年 7 月 3 日
  • AI

寫在前面

渣本渣,因為大數據方面我了解的太少了,所以在面試過程中很多關於大數據的問題我都回答不上來。

背景相關

碩士澳洲八大,IT。本科末流985,非IT。碩士因為跨專業,學的是Course Work,期間運氣比較好,有機會和幾位老師一起做了幾項ML相關的項目,因此畢業後找的工作都是算法相關的,希望能夠幫助到正在找工作的小夥伴。

面經

無論面試通過與否,都十分感謝在面試中遇到過的每一位面試官及HR小姐姐。大多數的面試官都非常nice,都在有意的引導我回答出正確答案。感覺面試比較玄學,面試過與不過,主要取決於基礎知識,除此之外也取決於眼緣。

騰訊算法(一面掛)

  • 自我介紹
  • 項目細扣
  • LSTM與RNN的區別
  • 梯度消失/爆炸產生原因
  • 梯度消失解決方法
  • 梯度爆炸解決方法
  • Word2vec方法有哪些/區別
  • 集成學習了解嗎
  • XGBOOST/GBDT簡單介紹,區別
  • 無手撕

位元組跳動算法(三面掛):

一面

  • CNN中感受野/權值共享
  • Resnet理解
  • Resnet相比全連接什麼區別
  • Alexnet/VGG/Densenet/Googlenet
  • 什麼是梯度消失/爆炸
  • RNN/LSTM解釋
  • LSTM怎麼緩解梯度消失/Resnet怎麼緩解梯度消失
  • 有什麼方法能解決梯度消失
  • 集成學習
  • XGBOOST理解
  • 手撕兩道:
  • Two sum
  • 最長公共子序列(理解成子串-子串手撕一遍,子序列在子串基礎上修改)

二面

  • 自我介紹
  • 項目細扣
  • 如何避免過擬合
  • LSTM理解
  • XGBOOST理解/損失函數/正則怎麼算
  • XGBOOST與GBDT對比/ Random Forest理解/Boosting與Bagging對比
  • 為什麼XGBOOST在大賽上表現很好/與GBDT相比優勢
  • 手撕兩道:
  • 島嶼問題
  • 編輯距離

三面

  • 自我介紹
  • TCP哪一層
  • HTTP/HTTPS區別
  • HTTPS為什麼Security
  • 線程與進程
  • 鎖/悲觀鎖樂觀鎖
  • 手撕一道:
  • LC Hard。題目忘記了,只記得dfs+dp,撕了20多分鐘才撕出來。

360算法

一面

  • 自我介紹
  • 項目細扣
  • 特徵工程
  • Precision/Recall/F-score/ROC/AUC
  • AUC計算
  • 項目為什麼選用AUC和F-score,為什麼不選用Recall
  • LSTM與RNN的區別
  • 梯度消失/爆炸的原因及解決方法
  • word2vec方法介紹
  • Transformer了解嗎/Bert了解嗎
  • 除了神經網絡,傳統的機器學習算法了解嗎
  • Boosting和Bagging區別
  • 簡單介紹下XGBOOST/GBDT
  • XGBOOST和GBDT區別
  • SVM/SVM核函數
  • 無手撕

二面

  • 自我介紹
  • 項目細扣
  • Precision/Recall/F-score/ROC/AUC
  • LSTM與RNN
  • CNN中怎麼做的卷積/卷積的優勢/卷積之後接什麼層/為什麼做pooling/都有哪些pooling
  • 卷積層/Pooling層(mean/max)的反向傳播
  • 卷積層參數量計算
  • 梯度消失/解決方法
  • Resnet
  • XGBOOST/GBDT/SVM/RF
  • 特徵工程
  • 學過什麼課/看了下成績單
  • MapReduce/Spark/Hive
  • Mit6.824
  • 手撕一道:
  • 記不太清了,沒有Hard那麼費勁,應該是Medium/Easy難度。

HR面

  • 自我介紹
  • 跨專業/Gap一年幹什麼了
  • 愛好等個人問題
  • 城市選擇
  • 部門選擇理由
  • 期望薪資
  • 入職時間

華為硬件研究院算法(一面掛)

一面

  • 自我介紹
  • 部門介紹
  • 崗位不太相符/為什麼選擇
  • 各基本算法理解/時間空間複雜度
  • 口述鏈表翻轉
  • 手撕兩道:
  • 二分
  • 堆排序

東芝語音識別算法

一面

  • 自我介紹
  • CNN/RNN/LSTM理解
  • SVM/RF理解
  • Precision/Recall/F-scor/ROC/AUC
  • 語音識別算法
  • 特徵工程 -無手撕

筆試

  • 前四道題都不難,LC Easy難度
  • Python Keras 搭一個基本的CNN

二面(全程英文)

  • 自我介紹
  • 為什麼選擇東芝
  • 澳洲生活
  • 入職時間

花椒直播算法

一面

  • 自我介紹
  • 項目細扣
  • 激活函數/比較
  • RNN理解
  • LSTM門控/作用/各門的激活函數選擇原因
  • SGD/BGD/momentum/Adam對比
  • Adam優點
  • Resnet理解
  • CNN各種模塊/名詞解釋
  • 梯度消失/爆炸的原因/緩解方法/解決方法
  • 常用的語言/庫/tensorflow-Keras/Theano/Pytorch
  • 卷積層/Pooling層/dense層細扣
  • 集成學習/Boosting/Bagging
  • XGBOOST/GBDT/Random Forest
  • XGBOOST的損失函數
  • XGBOOST怎麼避免過擬合/ XGBOOST正則
  • 隨機森林的隨機性體現在哪兒
  • LR/SVM理解
  • SVM核函數/作用
  • Wrangling/項目Wrangling解釋
  • 無手撕

二面(相當帥的一個小哥哥/眼睛帶笑)

  • 自我介紹
  • 項目細扣
  • Word2vec理解/CBOW和Skip-gram對比
  • Bert
  • SVM理解/手推(太久沒看了沒推出來)
  • LR手推
  • XGBOOST/GBDT/Random Forest
  • 各模型參數解釋/不同場合不同參數的影響
  • RNN/LSTM理解/對比
  • LSTM的方向傳播
  • Kaggle比賽中LSTM及GRU的選擇
  • CNN細扣
  • 手撕一道:二分

Boss直聘算法

一面(面試官小姐姐很好看)

  • 自我介紹等
  • 項目細扣/各種參數/方法/架構等設置及原因(非常非常細)
  • 主要是關於大數據方面的考核,這方面並不擅長。
  • 手撕一道:大數據相關的題

面試官小姐姐非常非常nice。大數據並不擅長,小姐姐一直在引導我,人也很美!

二面

  • 自我介紹
  • 項目細扣
  • Word2vec理解/CBOW和Skip-gram對比
  • Bert
  • SVM
  • XGBOOST/GBDT/Random Forest
  • 激活函數
  • Optimizer對比
  • Adam優點
  • LSTM/RNN
  • 梯度消失/爆炸
  • 項目細扣
  • 無手撕

三面

  • 自我介紹
  • 項目細扣
  • 各種真實場景下的解決思路/例如做推薦都需要哪些特徵,每種特徵該怎麼得到
  • 無手撕

HR面

  • 直切主題,很乾脆,nice!

尾巴

以上列出的是我能回憶起的比較有代表性的面試,其他公司例如其他互聯網企業或國企銀行等,如果有小夥伴需要也可以告訴我。除此之外,以上列出的面試經歷也有很多問題記不太清了,可能或有一定程度的缺失。

希望大家都能拿到心儀的offer,也希望大家在日後的工作中更加努力,加油,加油,加油!

 END