特征值、特征向量、相似矩阵,矩阵对角化的意义

1.相似矩阵

线性代数中,相似矩阵是指存在相似关系的矩阵。设A,B为n阶矩阵,如果有n阶可逆矩阵P存在,使得P^(-1)AP=B,则称矩阵A与B相似,记为A~B

相似矩阵有以下性质:

对于

ABC是任意同阶方阵,则有:

(1)反身性:A~ A

(2)对称性:若A~ B,则 B~ A

(3)传递性:若ABB~ C,则A~ C

(4)若A~ B,则r(A)=r(B),|A|=|B|,tr(A)=tr(B)。

(5)若A~ B,且A可逆,则B也可逆,且B~ A

(6)若A~ B,则AB

(7)若A对角矩阵相似,则称A可对角化矩阵,若n阶方阵An线性无关的特征向量,则称A单纯矩阵

(8)相似矩阵具有相同的可逆性,当它们可逆时,则它们的逆矩阵也相似。

2.矩阵对角化

设M为元素取自交换体K中的n阶方阵,将M对角化,就是确定一个对角矩阵D及一个可逆方阵P,使M=PDP-1。设f为典范对应于M的Kn的自同态,将M对角化,就是确定Kn的一个基,使在该基中对应f的矩阵是对角矩阵

理论上看,意义是明显的.相似是一种等价关系,对角化相当于对一类矩阵在相似意义下给出了一种简单的等价形式,这对理论分析是方便的.相似的矩阵拥有很多相同的性质,比如特征多项式,特征根,行列式……如果只关心这类性质,那么相似的矩阵可以看作没有区别的,这时研究一个一般的可对角化的矩阵,只要研究它的标准形式——一个对角矩阵就可以了.而对角矩阵是最简单的一类矩阵,研究起来非常方便.这个过程相当于在一个等价类中选取最顺眼的元素研究.
另外,对角化突出了矩阵的特征值,而过度矩阵T反映了特征向量的信息,对角化过程的直观意义还是很明显的.再结合正交矩阵的概念,可以得到一些不平凡的结论,例如实对称矩阵总可以对角化.
实践中的矩阵对角化作用也很大.别的不说,比如要算一个一般的3阶实对称矩阵A的n次幂,n较大时,按矩阵乘法定义去计算是相当繁琐的,计算复杂度呈指数型增长.但是如果把A可以对角化(实对称矩阵总是可以对角化的),写为=T^(-1)PT,P是对角阵.那么A^n=T^(-1)P^nT,P^n的计算是很简单的,只要把各特征值^n即可,此时计算A^n的复杂度几乎与n无关.

3.特征值和特征向量

通过求特征值和特征向量,我们可以得到相似的对角化的矩阵,然后就可以利用对角化的矩阵进行简便的运算。

另外在PCA中,通过选择最大的几个特征值,其余特征值看作0,以此来实现数据的降维。

原文地址:https://www.cnblogs.com/gxxtsz/p/12354447.html

时间: 2024-10-08 13:22:17

特征值、特征向量、相似矩阵,矩阵对角化的意义的相关文章

Codeforces 947E Perpetual Subtraction (线性代数、矩阵对角化、DP)

手动博客搬家: 本文发表于20181212 09:37:21, 原地址https://blog.csdn.net/suncongbo/article/details/84962727 呜啊怎么又是数学了啊...数学比例\(\frac{16}{33}=0.4848\) orz yhx-12243神仙 题目链接: https://codeforces.com/contest/947/problem/E 题意: 有一个\([0,n]\)的随机数\(x\)初始为\(i\)的概率为\(p_i\). \(m

矩阵对角化

numerical recipe 里一共讲了两种实数对称矩阵的对角化, jacobi法 tred2生成上三角阵以后用tqli对角化 前者稳定但慢易并行,后者较快但疑似不稳定,串行. 花了一下午,一点点调试终于知道了第二种方法不稳定的原因在哪里 1 SUBROUTINE tred2(a,d,e,novectors) 2 USE nrtype; USE nrutil, ONLY : assert_eq,outerprod 3 IMPLICIT NONE 4 REAL(SP), DIMENSION(:

说文解字----矩阵分析(二)特征值特征向量 奇异值分解(SVD)

特征值,奇异值,相关分解是矩阵分析中一个非常重要的概念,我再网上找了些资料,很多人已经对此分析的非常纯熟,为了尊重原创作者,首先贴几个链接,大家欣赏下: 外文链接:http://www.ams.org/samplings/feature-column/fcarc-svd 翻译文章:http://blog.csdn.net/dinosoft/article/details/37884597 数学之美与SVDhttp://blog.chinaunix.net/uid-24517893-id-3261

poj 3613 Cow Relays(矩阵的图论意义)

题解 用一个矩阵来表示一个图的边的存在性,即矩阵C[i,j]=1表示有一条从i到j的有向边C[i,j]=0表示没有从i到j的边.这个矩阵的k次方后C[i,j]就表示有多少条从i到j恰好经过k条边的路径. 在此题中我们赋予边权值并把矩阵乘法中的+改为min这样这个矩阵的k次方后C[i,j]就表示从i到j恰好经过k条边的最短路径. 1 #include<iostream> 2 #include<cstring> 3 #include<cstdio> 4 #include&l

机器学习--线性代数基础

关闭 yunqishequ1的博客 目录视图 摘要视图 订阅 管理博客 写新文章 评论送书 | 7月书讯:众多畅销书升级!      CSDN日报20170727--<想提高团队技术,来试试这个套路!>      评论送书 | 机器学习.Java虚拟机.微信开发 机器学习--线性代数基础 2017-07-28 14:05 6人阅读 评论(0) 收藏 编辑 删除  分类: 机器x 目录(?)[+] 原文地址 数学是计算机技术的基础,线性代数是机器学习和深度学习的基础,了解数据知识最好的方法我觉得

机器学习教程 一-不懂这些线性代数知识 别说你是搞机器学习的

原文:http://www.shareditor.com/blogshow/?blogId=1 数学是计算机技术的基础,线性代数是机器学习和深度学习的基础,了解数据知识最好的方法我觉得是理解概念,数学不只是上学时用来考试的,也是工作中必不可少的基础知识,实际上有很多有趣的数学门类在学校里学不到,有很多拓展类的数据能让我们发散思维,但掌握最基本的数学知识是前提,本文就以线性代数的各种词条来做一下预热,不懂的记得百度一下. 请尊重原创,转载请注明来源网站www.shareditor.com以及原始链

好文!特征值和特征向量的几何和物理意义 【转载东山狼的blog】

我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量.在这个变换的过程中,原向量主要发生旋转.伸缩的变化.如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值. 实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义.物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定.特征值大于1,所有属于此特征值的特征向量身形

线性代数之矩阵的特征值与特征向量

数学上,线性变换的特征向量(本征向量)是一个非退化的向量,其方向在该变换下不变.该向量在此变换下缩放的比例称为其特征值(本征值). 一个线性变换通常可以由其特征值和特征向量完全描述.特征空间是相同特征值的特征向量的集合.“特征”一词来自德语的eigen.1904年希尔伯特首先 在这个意义下使用了这个词,更早亥尔姆霍尔兹也在相关意义下使用过该词.eigen一词可翻译为”自身的”.“特定于……的”.“有特征的”.或者“个体 的”.这显示了特征值对于定义特定的线性变换有多重要. 线性变换的特征向量是指

矩阵特征分解介绍及雅克比 Jacobi 方法实现特征值和特征向量的求解 C++/OpenCV/Eigen

对角矩阵(diagonal matrix):只在主对角线上含有非零元素,其它位置都是零,对角线上的元素可以为0或其它值.形式上,矩阵D是对角矩阵,当且仅当对于所有的i≠j, Di,j= 0. 单位矩阵就是对角矩阵,对角元素全部是1.我们用diag(v)表示一个对角元素由向量v中元素给定的对角方阵.对角矩阵受到关注的部分原因是对角矩阵的乘法计算很高效.计算乘法diag(v)x,我们只需要将x中的每个元素xi放大vi倍.换言之,diag(v)x = v⊙x.计算对角方阵的逆矩阵也很高效.对角方阵的逆