绪论|机器学习推导系列(一)
一、频率派 vs 贝叶斯派
机器学习主要解决从数据中获取其概率分布的问题,通过一些机器学习的算法可以从大量数据中找到一定的规律,从而建立模型来解决实际问题,因此机器学习中主要使用数据来求解其参数:
data:X
X=
\left[
\begin{matrix}
x_1 & x_2 & \cdots & x_N\\
\end{matrix}
\right]^T_{N \times p}
=
\left[
\begin{matrix}
x_{11} & x_{12} & \cdots & x_{1p}\\
x_{21} & x_{22} & \cdots & x_{2p}\\
\vdots & \vdots & \ddots & \vdots \\
x_{N1} & x_{N2} & \cdots & x_{Np}\\
\end{matrix}
\right]_{N \times p}
parameter: \theta
频率派认为参数\theta是一个固定的常数(constant),而数据X是随机变量,而贝叶斯派认为参数\theta是随机变量(random variable),其服从某个概率分布P(\theta),这个概率分布称为先验。
二、频率派
频率派认为参数\theta是一个固定的常数(constant),频率派常用的求解方法为极大似然估计法:
极大似然估计:
\theta_{MLE}=\underset{\theta}{argmax}logP(X|\theta),其中L(\theta)=logP(X|\theta)。
频率派的求解步骤为:1.建立模型;2.定义损失函数;3.最优化损失函数。
三、贝叶斯派
贝叶斯学派认为参数\theta是一个随机变量(random variable),其拥有一个概率分布P(X),称为先验分布,在取样结果为X时,其后验概率:
\underset{posterior} {\underbrace{P(\theta |X)}}=\frac{\overset{likelihood}{\overbrace{P(X|\theta)}}\overset{prior}{\overbrace{P(\theta )}}}{P(X)} \\其中P(X)=\int_{\theta }P(X|\theta )P(\theta )\mathrm{d}\theta \\所以{P(\theta |X)}\propto P(X|\theta)P(\theta )
最大后验估计MAP:
\theta _{MAP}=\underset{\theta}{argmax}P(\theta|X)=\underset{\theta}{argmax}P(X|\theta)P(\theta )