美文网首页
线性代数与数值方法

线性代数与数值方法

作者: 田田ww | 来源:发表于2019-04-25 15:38 被阅读0次

主要分以下几个方面进行说明:

一、矩阵分解

二、线性最小二乘

三、非线性最小二乘

四、直接稀疏矩阵方法

五、迭代方法


一、矩阵分解

1.奇异值分解(SVD)

奇异值分解可将任意M\times N实数矩阵A分解成如下形式:
A_{m\times n}=U_{m\times p} \Sigma_{p\times p} V_{p\times n} ^T=[u_0\arrowvert \cdots \arrowvert u_{p-1}] \left[\begin{array}{ccc} \sigma_0 &&\\& \ddots&\\ &&\sigma_{p-1}\end{array}\right] \left[\begin{array}{c}v_0^T\\\hline \vdots\\\hline v_{p-1}^T \end{array}\right]
其中,p = \min (m,n),矩阵UV是正交矩阵,即U^TU=IV^TV=I。其中\Sigma主对角线上的值为矩阵A的奇异值,所有奇异值均是非负的,并按照降序排列。如果仅有前r个奇异值是正的,那么矩阵A的秩即为r,同时SVD下标可用r取代。

引用自《计算机视觉-算法与应用》

应用
1.求伪逆(求解线性最小平方、最小二乘问题):
若矩阵A的奇异值分解为A=U \Sigma V^T,那么A的伪逆为A^+=V \Sigma ^ + U^T,其中\Sigma^+\Sigma的伪逆,将原矩阵主对角线上每个非零元素求倒数之后再转置得到。
2.矩阵近似值(PCA降维):
PCA算法的作用是把数据集映射到低维空间,数据集的特征值(在SVD中用奇异值表征)按照重要性排列,降维的过程就是舍弃不重要的特征向量的过程,而剩下的特征向量组成的空间即为降维后的空间。

2.特征值分解

如果矩阵C是对称阵(m=n)那么其特征值分解的形式:
C=U\Lambda U^T=[u_0\arrowvert \cdots \arrowvert u_{n-1}] \left[\begin{array}{ccc} \lambda_0 &&\\& \ddots&\\ &&\lambda_{p-1}\end{array}\right] \left[\begin{array}{c}u_0^T\\\hline \vdots\\\hline u_{n-1}^T \end{array}\right]=\sum_{i=0}^{n-1}\lambda_iu_iu_i^T
这里u是特征向量,\lambda是特征值且\lambda_0\ge\lambda_1\ge\cdots\ge\lambda_{n-1}
其中对称阵C可以通过一系列外积之和来构造
C= \sum_i{a_ia_i^T}=AA^T
在这种情况下,我们可以保证所有特征值\lambda_i都是非负的。
此时产生的矩阵C是半正定矩阵,即对任意非0列向量x,存在x^TCx\ge0, \forall x如果矩阵C满秩所有特征值均为正,称为对称正定矩阵(SPD)。
对称正定矩阵在数据统计分析中表示一组数据点{x_i}围绕其中心\bar x产生的协方差
C=\frac{1}{n} \sum_i (x_i-\bar x)(x_i-\bar x)^T
矩阵C的特征值和特征向量与A的奇异值和奇异向量有着紧密联系若有A=U\Sigma V^TC=AA^T=U\Sigma V^TV\Sigma U^T=U\Lambda U^T由此我们可以知道\lambda_i=\sigma_i^2且矩阵A的左奇异向量就是矩阵C的特征向量。

3.QR因子分解

相关文章

网友评论

      本文标题:线性代数与数值方法

      本文链接:https://www.haomeiwen.com/subject/lujzgqtx.html