­

矩阵的奇异值分解

  • 2019 年 10 月 5 日
  • 筆記

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/weixin_36670529/article/details/100596742

奇异值分解(singular value decomposition, SVD),是将矩阵分解成奇异值(singular vector)和奇异值(singular value)。通过奇异值分解,我们会得到一些与特征分解相同类型的信息。然而,奇异值分解有更广泛的应用,每个实数矩阵都有一个奇异值,但不一定都有特征分解。例如,非方阵的矩阵没有特征分解,这时我们只能使用奇异值分解。

我们使用特征分解去分析矩阵A时,得到特征向量构成的矩阵V和特征值构成的向量

,我们可以重新将A写作

奇异值分解是类似的,只不过这回我们将矩阵A分成三个矩阵的乘积:

假设A是一个

矩阵,那么U是一个

的矩阵,D是一个

的矩阵,V是一个

矩阵。这些矩阵中的每一个定义后都拥有特殊的结构。矩阵U和V都定义为正交矩阵,而矩阵D定义为对角矩阵。注意,D不一定是方阵。对角矩阵D对角线上的元素称为矩阵A的奇异值(singular value)。矩阵U的列向量称为左奇异向量(left singular vector),矩阵V的列向量称为右起义向量(right singular vector)。

事实上,我们可以用与A相关的特征分解去解释A的奇异值分解。A的左奇异向量(left singular vector)是

的特征向量。A的右奇异值(right singular value)是

的特征向量。A的非零奇异值是

的特征向量。A的非零奇异值是

特征值的平方根,同时也是

特征值的平方根。SVD最有用的一个性质可能是拓展矩阵求逆到非矩阵上。