Perceptron Hypothesis Set

  • 2019 年 10 月 6 日
  • 筆記

Perceptron Hypothesis Set

0.說在前面

1.機器學習的過程

2.感知機

3.作者的話

0.說在前面

今天開始更新機器學習系列,近日主要研究機器學習基石以及西瓜書等方面的學習,本文將更新機器學習基石的相關筆記。

1.機器學習的過程

根據模型H,使用演算法A,在訓練樣本D上的進行訓練,得到最好的h,其對應的g就是最後機器學習的函數模型,一般g接近於目標函數f,如下圖所示:

ML圖

2.感知機

這裡引入了一個銀行發卡例子,某銀行需要根據用戶的年齡、收入、性別等來判斷是否給當前用戶發銀行卡。

現在有個訓練集D,表示之前用戶是否發卡與用戶基本資訊的關係數據。針對這個D,通過使用演算法A,在H中選擇最好的h,進而得到g,接近目標函數f。銀行利用這個機器學習模型以對用戶進行判斷:發卡(+1),不發卡(-1)。

到這裡,想到了什麼?

那就是這個結果竟然跟sigmoid函數取值很像。

在這個機器學習過程中,需要著重看中一個選擇,那就是模型選擇,也就是Hypothesis Set。

下面介紹一個常用的Hypothesis Set:感知機。

以上述是否給用戶發銀行卡為例,我們把用戶的個人資訊作為特徵向量x,總共有d個特徵,並且給每個特徵賦以不同的權重w,表示該特徵對輸出(是否發信用卡)的影響程度。

在把所有的特徵加權和的值與一個設定的閾值threshold進行比較。如果最終結果是大於這個閾值,輸出為+1,表示發卡,否則輸出為-1,表示不發卡。

感知機圖

感知機模型,就是當特徵加權和與閾值的差大於或等於0,即輸出h(x)=1;當特徵加權和與閾值的差小於0,即輸出h(x)=-1。我們的目的是計算出所有的權重w和閾值threshold。

然後為了計算方便,將閾值部分合併至累加求和裡面。設為w0x,並且將求和的公式看為兩個向量進行運算。

這裡的w為d行1列,x也為d行1列的向量。

簡化圖

為了更好的說明感知機模型,這裡假設感知機在二維平面上,即h(x)=sign(w0+w1*x1+w2*x2)。h(x)可以看出是一條分類直線,一側為正類(+1),另一次為負類(-1),權重的不同對應於不同的直線。其中+1,-1表示最後的y。

二維結果圖

這樣的perceptron成為linear(binary) classifier,即用一條直線區分兩種不同類型的結果。

3.作者的話

以上正文圖片來源於林老師課程!

最後,您如果覺得本公眾號對您有幫助,歡迎您多多支援,轉發,謝謝! 更多內容,請關注本公眾號機器學習系列!