矩阵——特征向量(Eigenvector)

原文链接

矩阵的基础内容以前已经提到,今天我们来看看矩阵的重要特性——特征向量。

矩阵是个非常抽象的数学概念,很多人到了这里往往望而生畏。比如矩阵的乘法为什么有这样奇怪的定义?实际上是由工程实际需要定义过来的。如果只知道概念不懂有何用处,思维就只有抽象性而没有直观性,实在是无法感受矩阵的精妙。

直观性说明

我们先看点直观性的内容。矩阵的特征方程式是:

A * x = lamda * x

这个方程可以看出什么?上次我们提到矩阵实际可以看作一个变换,方程左边就是把向量x变到另一个位置而已;右边就是把向量x作了一个拉伸,拉伸量是lamda。那么它的意义就很明显了,表达了矩阵A的一个特性就是这个矩阵可以把向量x拉长(或缩短)lamda倍,仅此而已。

任意给定一个矩阵A,并不是对所有的x它都能拉长(缩短)。凡是能被A拉长(缩短)的向量称为A的特征向量(Eigenvector);拉长(缩短)量就为这个特征向量对应的特征值(Eigenvalue)。

值得注意的是,我们说的特征向量是一类向量,因为任意一个特征向量随便乘以一个标量结果肯定也满足以上方程,当然这两个向量都可以看成是同一个特征向量,而且它们也都对应同一个特征值。

如果特征值是负数,那说明了矩阵不但把向量拉长(缩短)了,而且让向量指向了相反的方向。

一个矩阵可能可以拉长(缩短)好几个向量,所以它可能就有好多个特征值。有趣的是,如果A是实对称矩阵,那么那些不同的特征值对应的特征向量肯定是互相正交的,原因是(?)。

我们也可以说,一个变换矩阵的所有特征向量组成了这个变换矩阵的一组基。所谓基可以理解为坐标系的轴。我们平常用到的大多是直角坐标系,在线形代数中可以把这个坐标系扭曲、拉伸、旋转,称为基的变换。我们可以按我们的需求去设定基,但是基的轴之间必须是线形无关的,也就是保证坐标系的不同轴不要指向同一个方向或可以被别的轴组合而成,否则的话原来的空间就“撑”不起来了。在主成分分析(Principal Component Analysis)中我们通过在拉伸最大的方向设置基,忽略一些小的量,可以极大地压缩数据而减小失真。

变换矩阵的所有特征向量作为空间的基之所以重要,是因为在这些方向上变换矩阵可以拉伸向量而不必扭曲和旋转它,使得计算大为简单。所以特征值固然重要,我们的终极目标却是特征向量。

几个重要的抽象概念

我们回到矩阵的意义上,先介绍几个抽象概念:

:所有经过变换矩阵后变成了零向量的向量组成的集合,通常用Ker(A)来表示。假如你是一个向量,有一个矩阵要来变换你,如果你不幸落在了这个矩阵的核里面,那么很遗憾转换后你就变成了虚无的零。特别指出的是,核是“变换”(Transform)中的概念,矩阵变换中有一个相似的概念叫“零空间”。有的材料在谈到变换的时候使用T来表示,联系到矩阵时才用A,本文把矩阵直接看作“变换”。核所在的空间定义为V空间,也就是全部向量原来在的空间。

值域:某个空间中所有向量经过变换矩阵后形成的向量的集合,通常用R(A)来表示。假设你是一个向量,有一个矩阵要来变换你,这个矩阵的值域表示了你将来可能的位置,你不可能跑到这些位置之外。值域的维度也叫做秩(Rank)。值域所在的空间定义为W空间。W空间中不属于值域的部分等会儿我们会谈到。

空间:向量加上加、乘运算构成了空间。向量可以(也只能)在空间中变换。使用坐标系(基)在空间中描述向量。

不管是核还是值域,它们都是封闭的。意思是如果你和你的朋友困在核里面,你们不管是相加还是相乘都还会在核里面,跑不出去。这就构成了一个子空间。值域同理。

数学家证明了,V的维度一定等于它的任意一个变换矩阵的核的维度加上值域的维度。

dim( V ) = dim( Ker( A ) ) + dim( R( A) )

严格的证明过程可以参考教科书,这里说一个直观的证法:

V的维度也就是V的基的数目,这些基分为两部分,一部分在核中,一部分是值域中非零象的原象(肯定可以分,因为核和值域都是独立的子空间)。如果把V中的任意向量用基的形式写出来,那么这个向量必然也是一部分在核中,另一部分在值域中非零象的原象里。现在对这个向量作变换,核的那部分当然为零了,另一部分的维度刚好等于值域的维度。

变换矩阵行空间和零空间的关系

另外我们根据矩阵的性质,变换矩阵的行数等于V的维度,变换矩阵的秩等于值域R的维度,所以也可以记成:

A的行数= dim( A的零空间 )+ A的秩

因为A的秩又是A行空间的维度(注意在非满秩矩阵中这个数肯定小于行数):

A的行数= dim( A的零空间 )+ dim( A的行空间 )

为什么要写成这个形式?因为从这里我们可以发现A的零空间和A的行空间是正交互补的。正交是因为零空间就是核,按定义乘以A的行向量当然为零。互补是因为它们加起来刚好张成整个V空间。

这个正交互补导致了非常好的性质,因为A的零空间和A的行空间的基组合起来刚好可以凑成V的基。

变换矩阵列空间和左零空间的关系

如果把以上方程取转置,可得:

A的列数= dim( A^T的零空间 )+ dim( A的列空间 )

因为A^T的实际意义是把值域和定义域颠倒了过来,所以A^T的零空间就是从值域以外的区域投向V中零点的所有向量的空间(有点拗口!),有人把它称为“左零空间”(LeftNull Space)。这样:

A的列数= dim( A的左零空间 )+ dim( A的列空间 )

同样A的左零空间与A的列空间也正交互补,它们加起来刚好可以张成W空间。它们的基也构成了W的基。

变换矩阵行空间和列空间的关系

不要忘了变换矩阵实际上是把目标向量从行空间转化到列空间。

矩阵的行空间,列空间,零空间,左零空间构成了我们在线形代数研究中的所有空间,把它们的关系弄清楚,对于分别的基的转换非常重要。

特征方程的秘密

我们试图构造一个这样的变换矩阵A:它把向量变换到一个值域空间,这个值域空间的基是正交的;不仅如此,还要求任意一个基v都有A* u = lamda * v的形式,u是原来空间的一个已知的基。这样我们就能把复杂的向量问题转化到一个异常简单的空间中去。

如果u的数量不等于v,那么用A^T*A取代A,可以变为一个对称且半正定矩阵,它的特征向量正是要求的基v!

再次说明,矩阵不等于变换,把矩阵看成变换只是提供一个理解变换矩阵的方法。或者说矩阵只是变换的其中一种表现形式。

时间: 2024-11-06 01:53:36

矩阵——特征向量(Eigenvector)的相关文章

矩阵-特征向量

转自:http://blog.csdn.net/wangxiaojun911/article/details/6737933 矩阵的基础内容以前已经提到,今天我们来看看矩阵的重要特性——特征向量. 矩阵是个非常抽象的数学概念,很多人到了这里往往望而生畏.比如矩阵的乘法为什么有这样奇怪的定义?实际上是由工程实际需要定义过来的.如果只知道概念不懂有何用处,思维就只有抽象性而没有直观性,实在是无法感受矩阵的精妙. 直观性说明 我们先看点直观性的内容.矩阵的特征方程式是: A * x = lamda *

转:numpy.linalg.eig() 计算矩阵特征向量

https://blog.csdn.net/chixujohnny/article/details/51063617 在PCA中有遇到,在这里记录一下 计算矩阵的特征值个特征向量,下面给出几个示例代码: 在使用前需要单独import一下 >>> from numpy import linalg as LA >>> w, v = LA.eig(np.diag((1, 2, 3)))>>> w; varray([ 1., 2., 3.])array([[

线性代数之矩阵的特征值与特征向量

数学上,线性变换的特征向量(本征向量)是一个非退化的向量,其方向在该变换下不变.该向量在此变换下缩放的比例称为其特征值(本征值). 一个线性变换通常可以由其特征值和特征向量完全描述.特征空间是相同特征值的特征向量的集合.“特征”一词来自德语的eigen.1904年希尔伯特首先 在这个意义下使用了这个词,更早亥尔姆霍尔兹也在相关意义下使用过该词.eigen一词可翻译为”自身的”.“特定于……的”.“有特征的”.或者“个体 的”.这显示了特征值对于定义特定的线性变换有多重要. 线性变换的特征向量是指

矩阵及其变换、特征值与特征向量的物理意义

矩阵及其变换.特征值与特征向量的物理意义 最近在做聚类的时候用到了主成分分析PCA技术,里面涉及一些关于矩阵特征值和特征向量的内容,在网上找到一篇对特征向量及其物理意义说明较好的文章,整理下来,分享一下. 一.矩阵基础[1]: 矩阵是一个表示二维空间的数组,矩阵可以看做是一个变换.在线性代数中,矩阵可以把一个向量变换到另一个位置,或者说从一个坐标系变换到另一个坐标系.矩阵的“基”,实际就是变换时所用的坐标系.而所谓的相似矩阵(),就是同样的变换,只不过使用了不同的坐标系.线性代数中的相似矩阵实际

【Math for ML】矩阵分解(Matrix Decompositions) (上)

I. 行列式(Determinants)和迹(Trace) 1. 行列式(Determinants) 为避免和绝对值符号混淆,本文一般使用\(det(A)\)来表示矩阵\(A\)的行列式.另外这里的\(A∈R^{n×n}\)默认是方阵,因为只有方阵才能计算行列式. 行列式如何计算的就不在这里赘述了,下面简要给出行列式的各种性质和定理. 定理1:当且仅当一个方阵的行列式不为0,则该方阵可逆. 定理2:方阵\(A\)的行列式可沿着某一行或某一列的元素展开,形式如下: 沿着第\(i\)行展开:\[de

转!奇异值分解及几何意义

PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义.能在有限的篇幅把这个问题讲解的如此清晰,实属不易.原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD. 英文原文:We recommend a singular value decomposition 简介 SVD实际上是数学专业内容,但它现在已经渗入到不同

A tutorial on Principal Components Analysis | 主成分分析(PCA)教程

A tutorial on Principal Components Analysis 原著:Lindsay I Smith, A tutorial on Principal Components Analysis, February 26, 2002. 翻译:houchaoqun.时间:2017/01/18.出处:http://blog.csdn.net/houchaoqun_xmu  |  http://blog.csdn.net/Houchaoqun_XMU/article/details

ML | PCA

what's xxx PCA principal components analysis is for dimensionality reduction. 主要是通过对协方差矩阵Covariance matrix进行特征分解,以得出数据的主成分(即特征向量eigenvector)与它们的权值(即特征值eigenvalue). PCA是最简单的以特征量分析多元统计分布的方法.其结果可以理解为对原数据中的方差variance做出解释:哪一个方向上的数据值对方差的影响最大?换而言之,PCA提供了一种降

用opencv实现的PCA算法,非API调用

理论參考文献:但此文没有代码实现.这里自己实现一下,让理解更为深刻 问题:如果在IR中我们建立的文档-词项矩阵中,有两个词项为"learn"和"study",在传统的向量空间模型中,觉得两者独立. 然而从语义的角度来讲.两者是相似的.并且两者出现频率也类似,是不是能够合成为一个特征呢? <模型选择和规则化>谈到的特征选择的问题.就是要剔除的特征主要是和类标签无关的特征.比方"学生的名字"就和他的"成绩"无关,使用的