特征向量的意义

来源:http://www.cnblogs.com/doucontorl/archive/2010/12/31/1923104.html

特征向量的意义

因为l是常数,所以lx与x的方向相同。即,一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已。

下图是从wikipedia的《特征向量》一文中引用的。通过这个图可以对变与不变有一个进一步的了解。

图1

图1. 在这个错切变换中,蒙娜丽莎的图像被变形,但是中心的纵轴在变换下保持不变。(注意:角落在右边的图像中被裁掉了。)蓝色的向量,从胸部到肩膀,其方向改变了,但是红色的向量,从胸部到下巴,其方向不变。因此红色向量是该变换的一个特征向量,而蓝色的不是。因为红色向量既没有被拉伸又没有被压缩,其特征值为1。所有沿着垂直线的向量也都是特征向量,它们的特征值相等。它们构成这个特征值的特征空间

在wikipedia的《特征向量》一文中还提到了一个地球旋转的例子,旋转本身是一种线性变化,除了在旋转轴上的向量之外,所有从地心指向地表的向量的方向都变了。在旋转轴上的向量的向量就是这个线性变化的特征向量。

说到这我想很多人应该明白了,矩阵是一种线性变化,特征向量就是在这个变化当中不变的向量。说白了就是在变化当中寻找不变的东西。这不就是很多学科研究的内容吗?

分类: 电の转载

时间: 2024-10-16 07:29:06

特征向量的意义的相关文章

漫谈高数 特征向量物理意义

[1. 特征的数学意义]        我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变换.我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y').这里的矩阵M代表一种线性变换:拉伸,平移,旋转.那么,有没有什么样的线性变换b(b是一个向量),使得变换后的结果,看起来和让(x,y)*b像是一个数b乘以了一个数字m*b? 换句话说

协方差矩阵特征向量的意义

这是 Quora上的一篇文章:http://www.quora.com/What-is-an-eigenvector-of-a-covariance-matrix 协方差矩阵最大特征值对应的特征向量的方向,就是数据变化最大的方向.其他特征向量依次正交.

关于PCA算法的一点学习总结

本文出处:http://blog.csdn.net/xizhibei ============================= PCA,也就是PrincipalComponents Analysis,主成份分析,是个非常优秀的算法,依照书上的说法: 寻找最小均方意义下,最能代表原始数据的投影方法 然后自己的说法就是:主要用于特征的降维 另外,这个算法也有一个经典的应用:人脸识别.这里略微扯一下,无非是把处理好的人脸图片的每一行凑一起作为特征向量,然后用PAC算法降维搞定之. PCA的主要思想是

【Math for ML】矩阵分解(Matrix Decompositions) (上)

I. 行列式(Determinants)和迹(Trace) 1. 行列式(Determinants) 为避免和绝对值符号混淆,本文一般使用\(det(A)\)来表示矩阵\(A\)的行列式.另外这里的\(A∈R^{n×n}\)默认是方阵,因为只有方阵才能计算行列式. 行列式如何计算的就不在这里赘述了,下面简要给出行列式的各种性质和定理. 定理1:当且仅当一个方阵的行列式不为0,则该方阵可逆. 定理2:方阵\(A\)的行列式可沿着某一行或某一列的元素展开,形式如下: 沿着第\(i\)行展开:\[de

好文!特征值和特征向量的几何和物理意义 【转载东山狼的blog】

我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量.在这个变换的过程中,原向量主要发生旋转.伸缩的变化.如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值. 实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义.物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定.特征值大于1,所有属于此特征值的特征向量身形

矩阵及其变换、特征值与特征向量的物理意义

矩阵及其变换.特征值与特征向量的物理意义 最近在做聚类的时候用到了主成分分析PCA技术,里面涉及一些关于矩阵特征值和特征向量的内容,在网上找到一篇对特征向量及其物理意义说明较好的文章,整理下来,分享一下. 一.矩阵基础[1]: 矩阵是一个表示二维空间的数组,矩阵可以看做是一个变换.在线性代数中,矩阵可以把一个向量变换到另一个位置,或者说从一个坐标系变换到另一个坐标系.矩阵的“基”,实际就是变换时所用的坐标系.而所谓的相似矩阵(),就是同样的变换,只不过使用了不同的坐标系.线性代数中的相似矩阵实际

特征值、特征向量、相似矩阵,矩阵对角化的意义

1.相似矩阵 在线性代数中,相似矩阵是指存在相似关系的矩阵.设A,B为n阶矩阵,如果有n阶可逆矩阵P存在,使得P^(-1)AP=B,则称矩阵A与B相似,记为A~B 相似矩阵有以下性质: 对于 设A,B和C是任意同阶方阵,则有: (1)反身性:A~ A (2)对称性:若A~ B,则 B~ A (3)传递性:若A~ B,B~ C,则A~ C (4)若A~ B,则r(A)=r(B),|A|=|B|,tr(A)=tr(B). (5)若A~ B,且A可逆,则B也可逆,且B~ A. (6)若A~ B,则A与

KMP算法的特征向量

假设子串P有m个字符,子串P的特征向量N有m个非负整数,与每个字符一一对应. 也就是说每个字符都有属于自己,用来描述所在位置特征的专属数字. 那么,问题来了,这个数字的意义是什么?换句话说这个数字的作用是什么?用来描述什么? 嗯哼!敲黑板,注意听哦. 假设位置是i,N[i]是5,则5代表,从p的前五个字符顺序组成的字符串与从 i 位置开始,向左数5个字符,这5个字符从左向右组成的字符串相同.而且,没有比5大的 (⊙o⊙)-,呃,有点迷.就是    p[0]p[1]p[2]p[3]p[4] ==

(转载)协方差的意义

数学学了好多年,从学会解各种方程组到计算二重三重积分,从代数到几何,从二维平面到三维空间,从线性代数到概率统计……学会了各种机械的解法,但很多基本概念的意义却不知道.比如说我会很容易的求得一个矩阵的特征值跟特征向量,但是他们到底有什么含义,我们为什么要求一个矩阵的特征值??一头雾水.. 这是在做一个模式识别课堂老师布置的一个作业题时遇到的,协方差矩阵.突然想到协方差,实在忘记了它的意义.看到前人整理过详细的解释,做搬运工没意思,这里引用之,以供自己以后巩固知识. 当 X, Y 的联合分布像上图那