面試百度的機器學習演算法,也不過如此
- 2020 年 3 月 7 日
- 筆記
本文已經收錄至我的GitHub,歡迎大家踴躍star 和 issues。
https://github.com/midou-tech/articles
機器學習整體難度還是有點,不過這個崗位真的是很香,錢多,發展空間足未來可期啊。
本篇文章面經是三位大佬面試百度機器學習崗位的面試題,其中兩位已經拿到offer,趕緊複習起來,下一個offer就是我。
更多的面經和內推資訊,請微信搜索 龍躍十二 即可獲取。
一面
- 詢問簡歷上做過的項目,以及項目細節
- 演算法題:
- 二叉樹中序遍歷(要非遞歸解法)
- 兩個有序鏈表的歸併。
- 快排
- lstm 詳細講講解
- attetion 機制
- 混淆矩陣,F1等計算
- n個人進餐館,都把帽子掛在門口,走的時候隨手拿一頂,問拿到帽子恰好是自己的人數的期望
- ML 與 DL比較
- 實習的一些問題
二面
-
演算法題:返回二叉樹中路徑和為某一值的所有路徑、反轉句子中單詞順序
-
區塊鏈比賽和專利
-
我驚了個呆,大佬竟然還了解區塊鏈,準確指出了我的區塊鏈項目和專利的不靠譜處(我也知道啊,所以我轉ML了啊)
-
項目
-
這個就隨便聊了聊
-
AUC計算
-
很奇怪,我面試後看了看發現給出的是正確方法,但是面試官說不對。。。
-
進程和執行緒是為什麼被提出的
-
執行緒間如何通訊
-
快排複雜度的證明
-
特徵篩選方法
三面
- 基礎數據結構和演算法有哪些
- 是的你沒猜錯,我把課本羅列了一下,順序表 鏈表 哈希表 樹系列 圖系列,選擇插入冒泡希爾堆快速基數外部排序,就過了。。。
- 推薦類演算法比較
- 機器學習演算法比較
- 聊了聊區塊鏈
已經拿到offer
這是下一位同學的面經
一面
-
聊項目,聊的非常細,我的項目就是比賽,面試官甚至問了我提分的過程,一開始多少分,做了哪些工作之後升到了多少分之類的;
-
跟過擬合有關的一些問題,詳細的內容已經記不清了;
-
聊xgboost;
-
聊deepFM;
-
項目中用到了LSTM,為什麼可以用LSTM,它的主要用處是什麼,以及LSTM的梯度消失問題;
-
演算法題:二叉樹中的最長路徑;
-
演算法題:x的平方根。
二面:
-
聊項目;
-
聊GBDT;
-
演算法題:二分查找;
-
演算法題:最大堆的插入;
-
聊deepFM;
-
不定長文本數據如何輸入deepFM,如果不截斷補齊又該如何輸入;
-
項目中為什麼使用LSTM;
-
項目中整個過程中都做過哪些優化。
三面:
-
n個數中等概率抽取m個數。
三面就問了一道概率題,剩下的基本上是聊天。 總的來說面試難度不高,感覺也是我運氣好吧。
這是下一位同學的面經
一面
- 給一個數組,數組的數字代表股票價格,求一次買賣的最大股票收益
- 1-n的全排列
- lstm是什麼的升級?解決了什麼問題?
- 講一講各種激活函數
- attetion 機制
- embedding的深層含義是什麼
- c 的const欄位有什麼意義
- RF和GBDT的區別
- 為什麼GBDT可以提高準確率
- 矩陣分解
二面
- 自我介紹
- 講區塊鏈
- 區塊鏈中51%攻擊的經濟學原理
- 求樹兩個節點的最低公共祖先
- 講kaggle比賽
- xgboost比gbdt的優化都有哪些
- 為什麼xgboost要求二階導數
- 泰勒展開逼近殘差,二階比一階精度高
- 通用性,所有二階可導的loss function都可以用
- 有些函數梯度在一階上變化小,二階變化大,參考牛頓法
- 為什麼gbdt沒有正則
- 講項目
- 計算一下項目中DNN的參數個數
- gbdt與lr區別
- 集成為什麼會提高效果
- l1 l2正則
- xgb lgb調參怎麼選參數
- 貪婪搜索唄?面試官覺得不行?難道是貝葉斯參數優化?
- 怎麼樣在沒有得到未來數據的情況下提高模型對未來預測的效果
- 講道理我覺得這個問的非常扯淡,不就是泛化性,然後我說了一些降低方差的方法,面試官說是對未來預測的準確性,沒有get到他的點,最後被說對演算法的追求不夠。。。。
更多的面經和內推資訊,請微信搜索 龍躍十二 即可獲取。