下载此文档

PCA算法的数学知识---特征值分解和奇异值分解.docx


文档分类:高等教育 | 页数:约5页 举报非法文档有奖
1/5
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/5 下载此文档
文档列表 文档介绍
PCA算法的数学知识---特征值分解和奇异值分解:
1)特征值:
    如果说一个向量v是方阵X的特征向量,将一定可以表示成下面的形式:
    这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵X的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。
首先,要明确的是,乘以一个矩阵其实就是一个线性变换,而且将一个矩阵乘以一个向量后得到的向量,其实就相当于对这个向量进行了线性变换。如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。分解得到的Σ矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。通过特征值分解得到的前N个特征向量,就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是:提取这个矩阵最重要的特征。
总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可
以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。
2)奇异值:
   特征值分解是一个提取矩阵特征很不错的方法,但是它只是对方阵而言的,而奇异值分解是一个能适用于任意的矩阵的一种分解的方法:
假设X是一个n* p的矩阵,那么得到的U是一个n * n的方阵(里面的向量是正交的,U里面的向量称为左奇异向量),Σ是一个n * p的矩阵(除了对角线的元素都是0,对角线上的元素称为奇异值),(V的转置)是一个p * p的矩阵,里面的向量也是正交的,V里面的向量称为右奇异向量)。
那么奇异值和特征值是怎么对应起来的呢?首先,我们将一个矩阵X的转置乘以X,将会得到一个方阵,我们用这个方阵求特征值可以得到:    这里得到的v,就是我们上面的右奇异向量。此外我们还可以得到:
   
这里的σ就是上面说的奇异值,u就是上面说的左奇异向量。奇异值σ跟特征值类似,在矩阵Σ中也是从大到小排列,而且σ的减
少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前r大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解:
    r是一个远小于n、p的数,右边的三个矩阵相乘的结果将会是一个接近于X的矩阵,在这儿,r越接近于p,则相乘的结果越接近于X。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵X,我们如果想要压缩空间来表示原矩阵X,我们存下这里的三个矩阵:U、Σ、V就好了。
奇异值与主成分分析(PCA):
PCA的全部工作简单点说,就是对原始的空间中顺序地找一组相互正交的坐标轴,第一个轴是使得方差最大的,第二个轴是在与第一个轴正交的平面中使得方差最大的,第三个轴是在与第1、2个轴正交的平面中方差最大的,这样假设在N维空间中,我们可以找到N个这样的坐标轴,我们取前r个去近似这个空间,这样就从一个N维的空间压缩到r维的空间了,但是我们选择的r个坐标轴能够使得空间的压缩使得数据的损失最

PCA算法的数学知识---特征值分解和奇异值分解 来自淘豆网m.daumloan.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数5
  • 收藏数0 收藏
  • 顶次数0
  • 上传人花花世界
  • 文件大小41 KB
  • 时间2018-11-06