绪论|机器学习推导系列(一)

一、频率派 vs 贝叶斯派

机器学习主要解决从数据中获取其概率分布的问题,通过一些机器学习的算法可以从大量数据中找到一定的规律,从而建立模型来解决实际问题,因此机器学习中主要使用数据来求解其参数

data:X
X=
\left[
\begin{matrix}
x_1 & x_2 & \cdots & x_N\\
\end{matrix}
\right]^T_{N \times p}
=
\left[
\begin{matrix}
x_{11} & x_{12} & \cdots & x_{1p}\\
x_{21} & x_{22} & \cdots & x_{2p}\\
\vdots & \vdots & \ddots & \vdots \\
x_{N1} & x_{N2} & \cdots & x_{Np}\\
\end{matrix}
\right]_{N \times p}

parameter: \theta

频率派认为参数\theta是一个固定的常数(constant),而数据X是随机变量,而贝叶斯派认为参数\theta是随机变量(random variable),其服从某个概率分布P(\theta),这个概率分布称为先验。

二、频率派

频率派认为参数\theta是一个固定的常数(constant),频率派常用的求解方法为极大似然估计法:

极大似然估计:
\theta_{MLE}=\underset{\theta}{argmax}logP(X|\theta),其中L(\theta)=logP(X|\theta)

频率派的求解步骤为:1.建立模型;2.定义损失函数;3.最优化损失函数。

三、贝叶斯派

贝叶斯学派认为参数\theta是一个随机变量(random variable),其拥有一个概率分布P(X),称为先验分布,在取样结果为X时,其后验概率:

\underset{posterior} {\underbrace{P(\theta |X)}}=\frac{\overset{likelihood}{\overbrace{P(X|\theta)}}\overset{prior}{\overbrace{P(\theta )}}}{P(X)} \\其中P(X)=\int_{\theta }P(X|\theta )P(\theta )\mathrm{d}\theta \\所以{P(\theta |X)}\propto P(X|\theta)P(\theta )

最大后验估计MAP:

\theta _{MAP}=\underset{\theta}{argmax}P(\theta|X)=\underset{\theta}{argmax}P(X|\theta)P(\theta )