美文网首页机器学习和人工智能入门
为什么选SVD而不是PCA?Lauchli 矩阵

为什么选SVD而不是PCA?Lauchli 矩阵

作者: 对抗天网的小人儿 | 来源:发表于2017-09-22 21:55 被阅读0次

对于输入样本Tensor X来说,PCA一般不会直接对X进行特征值分解,因为X往往不能保证是实对称方阵。所以PCA在实际中是对

来进行特征值分解的。在转置相乘的过程中可能损失掉X的特征信息,详情请见如下Lauchli矩阵[1]:

其中

代表一个小正数。

此时直接对Tensor X进行特征值分解可以取得更好的分解效果。


参考文献:

[1]P. Lauchli, Jordan-Elimination und Ausgleichung nach kleinsten Quadraten, Numer. Math, 3 (1961), pp. 226-240.

相关文章

  • 为什么选SVD而不是PCA?Lauchli 矩阵

    对于输入样本Tensor X来说,PCA一般不会直接对X进行特征值分解,因为X往往不能保证是实对称方阵。所以PCA...

  • PCA(主成分分析)

    PCA 参考资料 强大的矩阵奇异值分解(SVD)及其应用

  • SVD与PCA的联系

    Welcome To My Blog 最主要的一点: 对矩阵进行PCA降维,一般是通过SVD实现的,而不是去计算原...

  • 为什么要PCA,不直接SVD?

    为什么? 一句话,转成协方差矩阵,是对称矩阵,特征值分解比SVD奇异值分解的计算量小的多 PCA可以通过分解协方差...

  • 机器学习之sklearn中的降维算法

    1. PCA与SVD sklearn中降维算法都被包括在模块decomposition中,这个模块本质是一个矩阵分...

  • 我所理解的SVD与PCA

    Motivation 之所以要写本文,是因为我先在矩阵课上学了SVD,后又在机器学习课上了解到了PCA,当时就觉得...

  • PCA 使用 SVD

    “PCA 通过 SVD 分解替代协方差矩阵的特征值分解” 是什么意思? 在周志华的《机器学习》第 10 章介绍“主...

  • 03高通量测序-PCA中的主要概念

    为什么要使用PCA 我们使用SVD(singular value decomposition,中文译名“奇异值分解...

  • SVD

    谈谈矩阵的 SVD 分解SVD花书

  • 机器学习_用SVD奇异值分解给数据降维

     本想把PCA和SVD写在一起,可上篇PCA还没写清楚就已经4页word了。再把SVD和特征工程的内容加上,实在是...

网友评论

    本文标题:为什么选SVD而不是PCA?Lauchli 矩阵

    本文链接:https://www.haomeiwen.com/subject/fjpcdxtx.html