Ridge回歸 sklearn API參數速查手冊
- 2020 年 2 月 13 日
- 筆記

sklearn.decomposition.PCA 參數速查手冊
sklearn.linear_model.LinearRegression 參數速查手冊

語法
sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0.001, solver='auto', random_state=None)
Parameters
alpha
釋義: 正則化項係數,較大的值指定更強的正則化
設置:Alpha對應於其他線性模型(如Logistic回歸或LinearSVC)中的C^-1。如果傳遞數組,則假定懲罰被特定於目標。因此,它們必須在數量上對應。
fit_intercept
釋義:是否計算該模型的截距
設置:bool型,可選,默認True;如果使用中心化的數據,可以考慮設置為False,不考慮截距
normalize
釋義:是否對數據進行標準化處理,若不計算截距,則忽略此參數
設置:bool型,可選,默認False,建議將標準化的工作放在訓練模型之前,通過設置sklearn.preprocessing.StandardScaler來實現,而在此處設置為false;當fit_intercept設置為false的時候,這個參數會被自動忽略。如果為True,回歸器會標準化輸入參數:減去平均值,並且除以相應的二範數
copy_X
釋義:是否對X複製
設置:bool型、可選、默認True;如為false,則即經過中心化,標準化後,把新數據覆蓋到原數據X上
max_iter
釋義:共軛梯度求解器的最大迭代次數,需要與solver求解器配合使用
設置:solver為sparse_cg和lsqr時,默認由scipy.sparse.linalg確定,solver為sag時,默認值為1000
tol
釋義:計算精度
設置:float型,默認=1e-3
solver
釋義:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}
設置:
aotu:根據數據類型自動選擇求解器
svd:使用X的奇異值分解計算嶺係數,奇異矩陣比cholesky更穩定
cholesky:使用標準的scipy.linalg.solve函數獲得收斂的係數
sparse_cg:使用scipy.sparse.linalg.cg中的共軛梯度求解器。比cholesky更適合大規模數據(設置tol和max_iter的可能性)
lsqr:專用的正則化最小二乘方法scipy.sparse.linalg.lsqr
sag:隨機平均梯度下降;僅在fit_intercept為True時支援密集數據
saga:sag改進,無偏版.採用SAGA梯度下降法可以使模型快速收斂
random_state
釋義:隨機數生成器的種子,僅在solver="sag"時使用
設置:int型, 默認None
Attributes
coef_
返回模型的估計係數(權重向量)
intercept_
線性模型的獨立項,一維情形下的截距
n_iter_
實際迭代次數
Methods
fit(self, X, y[, sample_weight])
輸入訓練樣本數據X,和對應的標記y
get_params(self[, deep])
返回函數linear_model.Ridge()內部的參數值
predict(self, X)
利用學習好的線性分類器,預測標記
score(self, X, y[, sample_weight])
返回模型的擬合優度判定係數
set_params(self, **params)
設置函數linear_model.Ridge()內部的參數
