在機器學習中,常用的損失函數有哪些?
「(1) 0-1 loss」
記錄分類錯誤的次數。
「(2)Hinge Loss」
最常用在SVM中「最大優化間隔分類」中,對可能的輸出t=±1和分類器分數y,預測值y的hinge loss定義如下:
L(y)=max(0.1-t*y)
「(3)Log Loss對數損失」
對於「對數函數」,由於其具有「單調性」,在求最優化問題時,結果與原始目標一致,在含有乘積的目標函數中(如極大似然函數),通過「取對數」可以轉化為求和的形式,從而大大簡化目標函數的「求解」過程。
「(4)Squared Loss 平方損失」
即真實值與預測值之差的平方和。通常用於線性模型中,如線性回歸模型。
「(5)Exponential Loss指數損失」
指數函數的特點是越接近正確結果誤差越小,Adaboost演算法即使用的指數損失目標函數。但是指數損失存在的一個問題是誤分類樣本的權重會「指數上升」,如果數據樣本是異常點,會「極大地」干擾後面基本分類器學習效果。
❝
拜託你一件事兒
關注我一下!
謝謝啦!
❞