矩阵的特征值和特征向量的雅克比算法C/C++实现

矩阵的特征值和特征向量是线性代数以及矩阵论中很重要的一个概念。在遥感领域也是经经常使用到。比方多光谱以及高光谱图像的主成分分析要求解波段间协方差矩阵或者相关系数矩阵的特征值和特征向量。

依据普通线性代数中的概念,特征值和特征向量能够用传统的方法求得,可是实际项目中一般都是用数值分析的方法来计算,这里介绍一下雅可比迭代法求解特征值和特征向量。

雅克比方法用于求实对称阵的所有特征值、特征向量。

对于实对称阵 A,必有正交阵 U。使

U TA U = D

当中 D 是对角阵,其主对角线元 li A 的特征值. 正交阵 U 的第 j 列是 A 的属于 li 的特征向量。

原理:Jacobi 方法用平面旋转对矩阵 A 做类似变换,化A 为对角阵,进而求出特征值与特征向量。

既然用到了旋转,这里就介绍一下旋转矩阵。

对于 p q,以下定义的 n 阶矩阵Upq 平面旋转矩阵。


easy验证 Upq是正交阵。

对于向量xUpq x 相当于把坐标轴OxpOxq 于所在的平面内旋转角度 j .

变换过程: 在保证类似条件下,使主对角线外元素趋于零!

n 阶方阵A = [aij],  对 A 做以下的变换:

A1= UpqTAUpq,

          A1 仍然是实对称阵,由于,UpqT =Upq-1,知A1A 的特征值同样。

前面说了雅可比是一种迭代算法。所以每一步迭代时,须要求出旋转后新的矩阵,那么新的矩阵元素怎样求,这里给出详细公式例如以下:

由上面的一组公式能够看到:

(1)矩阵A1 的第p 行、列与第 q 行、列中的元素发生了变化,其他行、列中的元素不变。

(2)p、q各自是前一次的迭代矩阵A的非主对角线上绝对值最大元素的行列号

(3) j是旋转角度。能够由以下的公式计算:

归纳能够得到雅可比迭代法求解矩阵特征值和特征向量的详细过程例如以下:

(1) 初始化特征向量为对角阵V。即主对角线的元素都是1.其他元素为0。

(2)A的非主对角线元素中,找到绝对值最大元素 apq

(3) 用式(3.14)计算tan2j,求 cosj, sinj 及矩阵Upq .

(4) 用公式(1)-(4)求A1;用当前特征向量矩阵V乘以矩阵Upq得到当前的特征向量V。

(5) 若当前迭代前的矩阵A的非主对角线元素中最大值小于给定的阈值e时。停止计算;否则, 令A = A1 , 反复运行(2) ~ (5)。 停止计算时。得到特征值 li≈(A1) ij ,i,j= 1,2,…,n.以及特征向量V。

(6) 这一步可选。

依据特征值的大小从大到小的顺序又一次排列矩阵的特征值和特征向量。

到如今为止,每一步的计算过程都十分清楚了,写出代码也就不是难事了,详细代码例如以下:

/**
* @brief 求实对称矩阵的特征值及特征向量的雅克比法
* 利用雅格比(Jacobi)方法求实对称矩阵的所有特征值及特征向量
* @param pMatrix				长度为n*n的数组。存放实对称矩阵
* @param nDim					矩阵的阶数
* @param pdblVects				长度为n*n的数组,返回特征向量(按列存储)
* @param dbEps					精度要求
* @param nJt					整型变量。控制最大迭代次数
* @param pdbEigenValues			特征值数组
* @return
*/
bool CPCAAlg::JacbiCor(double * pMatrix,int nDim, double *pdblVects, double *pdbEigenValues, double dbEps,int nJt)
{
	for(int i = 0; i < nDim; i ++)
	{
		pdblVects[i*nDim+i] = 1.0f;
		for(int j = 0; j < nDim; j ++)
		{
			if(i != j)
				pdblVects[i*nDim+j]=0.0f;
		}
	} 

	int nCount = 0;		//迭代次数
	while(1)
	{
		//在pMatrix的非对角线上找到最大元素
		double dbMax = pMatrix[1];
		int nRow = 0;
		int nCol = 1;
		for (int i = 0; i < nDim; i ++)			//行
		{
			for (int j = 0; j < nDim; j ++)		//列
			{
				double d = fabs(pMatrix[i*nDim+j]); 

				if((i!=j) && (d> dbMax))
				{
					dbMax = d;
					nRow = i;
					nCol = j;
				}
			}
		}

		if(dbMax < dbEps)     //精度符合要求
			break;  

		if(nCount > nJt)       //迭代次数超过限制
			break;

		nCount++;

		double dbApp = pMatrix[nRow*nDim+nRow];
		double dbApq = pMatrix[nRow*nDim+nCol];
		double dbAqq = pMatrix[nCol*nDim+nCol];

		//计算旋转角度
		double dbAngle = 0.5*atan2(-2*dbApq,dbAqq-dbApp);
		double dbSinTheta = sin(dbAngle);
		double dbCosTheta = cos(dbAngle);
		double dbSin2Theta = sin(2*dbAngle);
		double dbCos2Theta = cos(2*dbAngle);

		pMatrix[nRow*nDim+nRow] = dbApp*dbCosTheta*dbCosTheta +
			dbAqq*dbSinTheta*dbSinTheta + 2*dbApq*dbCosTheta*dbSinTheta;
		pMatrix[nCol*nDim+nCol] = dbApp*dbSinTheta*dbSinTheta +
			dbAqq*dbCosTheta*dbCosTheta - 2*dbApq*dbCosTheta*dbSinTheta;
		pMatrix[nRow*nDim+nCol] = 0.5*(dbAqq-dbApp)*dbSin2Theta + dbApq*dbCos2Theta;
		pMatrix[nCol*nDim+nRow] = pMatrix[nRow*nDim+nCol];

		for(int i = 0; i < nDim; i ++)
		{
			if((i!=nCol) && (i!=nRow))
			{
				int u = i*nDim + nRow;	//p
				int w = i*nDim + nCol;	//q
				dbMax = pMatrix[u];
				pMatrix[u]= pMatrix[w]*dbSinTheta + dbMax*dbCosTheta;
				pMatrix[w]= pMatrix[w]*dbCosTheta - dbMax*dbSinTheta;
			}
		} 

		for (int j = 0; j < nDim; j ++)
		{
			if((j!=nCol) && (j!=nRow))
			{
				int u = nRow*nDim + j;	//p
				int w = nCol*nDim + j;	//q
				dbMax = pMatrix[u];
				pMatrix[u]= pMatrix[w]*dbSinTheta + dbMax*dbCosTheta;
				pMatrix[w]= pMatrix[w]*dbCosTheta - dbMax*dbSinTheta;
			}
		}

		//计算特征向量
		for(int i = 0; i < nDim; i ++)
		{
			int u = i*nDim + nRow;		//p
			int w = i*nDim + nCol;		//q
			dbMax = pdblVects[u];
			pdblVects[u] = pdblVects[w]*dbSinTheta + dbMax*dbCosTheta;
			pdblVects[w] = pdblVects[w]*dbCosTheta - dbMax*dbSinTheta;
		} 

	}

	//对特征值进行排序以及又一次排列特征向量,特征值即pMatrix主对角线上的元素
	std::map<double,int> mapEigen;
	for(int i = 0; i < nDim; i ++)
	{
		pdbEigenValues[i] = pMatrix[i*nDim+i];

		mapEigen.insert(make_pair( pdbEigenValues[i],i ) );
	} 

	double *pdbTmpVec = new double[nDim*nDim];
	std::map<double,int>::reverse_iterator iter = mapEigen.rbegin();
	for (int j = 0; iter != mapEigen.rend(),j < nDim; ++iter,++j)
	{
		for (int i = 0; i < nDim; i ++)
		{
			pdbTmpVec[i*nDim+j] = pdblVects[i*nDim + iter->second];
		}

		//特征值又一次排列
		pdbEigenValues[j] = iter->first;
	}

	//设定正负号
	for(int i = 0; i < nDim; i ++)
	{
		double dSumVec = 0;
		for(int j = 0; j < nDim; j ++)
			dSumVec += pdbTmpVec[j * nDim + i];
		if(dSumVec<0)
		{
			for(int j = 0;j < nDim; j ++)
				pdbTmpVec[j * nDim + i] *= -1;
		}
	}

	memcpy(pdblVects,pdbTmpVec,sizeof(double)*nDim*nDim);
	delete []pdbTmpVec;

	return 1;
}
时间: 2024-10-12 15:44:23

矩阵的特征值和特征向量的雅克比算法C/C++实现的相关文章

线性代数精华——矩阵的特征值与特征向量

今天和大家聊一个非常重要,在机器学习领域也广泛使用的一个概念--矩阵的特征值与特征向量. 我们先来看它的定义,定义本身很简单,假设我们有一个n阶的矩阵A以及一个实数\(\lambda\),使得我们可以找到一个非零向量x,满足: \[Ax=\lambda x\] 如果能够找到的话,我们就称\(\lambda\)是矩阵A的特征值,非零向量x是矩阵A的特征向量. 几何意义 光从上面的式子其实我们很难看出来什么,但是我们可以结合矩阵变换的几何意义,就会明朗很多. 我们都知道,对于一个n维的向量x来说,如

浅浅地聊一下矩阵与线性映射及矩阵的特征值与特征向量

都说矩阵其实就是线性映射,你明白不?反正一开始我是不明白的: 线性映射用矩阵表示:(很好明白的) 有两个线性空间,分别为V1与V2, V1的一组基表示为,V2的一组基表示为:(注意哦,维度可以不一样啊,反正就是线性空间啊), 1, 现在呢,有一个从V1到V2的映射F, 它可以把V1中的一组基都映射到线性空间V2中去,所以有: 用矩阵可以表示为: 2,现在我们把在V1中有一个向量A,经过映射F变为了向量B,用公式表示为:                                 所以呢,坐标

利用QR算法求解矩阵的特征值和特征向量

利用QR算法求解矩阵的特征值和特征向量 为了求解一般矩阵(不是那种幼稚到shi的2 x 2矩阵)的特征值. 根据定义的话,很可能需要求解高阶方程... 这明显是个坑...高阶方程你肿么破... 折腾了好久 1.我要求特征值和特征向量. 2.找到一种算法QR分解矩阵求解特征值 3.QR矩阵分解需要Gram-schimidt正交化分解 有一种很明显的感觉,往往在现在很难有 很系统 很深入 的学习某一个学科的某一门知识. 往往学的时候"靠,学这东西有什么用""学了这么久,也不知道怎么用,不想学" 到后

线性代数 - 05 矩阵的特征值与特征向量

线性代数 - 05 矩阵的特征值与特征向量 一.特征值与特征向量 二.矩阵的相似与矩阵的对角化 三.实对称矩阵的对角化 1.向量的内积与正交矩阵 2.实对称矩阵的特征值与特征向量 线性代数 - 05 矩阵的特征值与特征向量,码迷,mamicode.com

线性代数之矩阵的特征值与特征向量

数学上,线性变换的特征向量(本征向量)是一个非退化的向量,其方向在该变换下不变.该向量在此变换下缩放的比例称为其特征值(本征值). 一个线性变换通常可以由其特征值和特征向量完全描述.特征空间是相同特征值的特征向量的集合.“特征”一词来自德语的eigen.1904年希尔伯特首先 在这个意义下使用了这个词,更早亥尔姆霍尔兹也在相关意义下使用过该词.eigen一词可翻译为”自身的”.“特定于……的”.“有特征的”.或者“个体 的”.这显示了特征值对于定义特定的线性变换有多重要. 线性变换的特征向量是指

雅可比算法求矩阵的特征值和特征向量

目的 求一个实对称矩阵的所有特征值和特征向量. 前置知识 对于一个实对称矩阵\(A\),必存在对角阵\(D\)和正交阵\(U\)满足\[D=U^TAU\]\(D\)的对角线元素为\(A\)的特征值,\(U\)的列向量为\(A\)的特征向量. 定义\(n\)阶旋转矩阵\[G(p,q,\theta)= \begin{bmatrix} 1 & & & & & \cdots& & & & & 0\ &\ddots &

特征值和特征向量的几何意义、计算及其性质(一个变换(或者说矩阵)的特征向量就是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已)

  对于任意一个矩阵,不同特征值对应的特征向量线性无关. 对于实对称矩阵或埃尔米特矩阵来说,不同特征值对应的特征向量必定正交(相互垂直).   一.特征值和特征向量的几何意义 特征值和特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍是同维数的一个向量.因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量. 那么变换的效果是什么呢?这当然与方阵的构造有密切的关系,比如可以取适当的二维方阵,使得

特征值与特征向量的求法

设A为n阶方阵,如果数“ ”和n维列向量x使得关系式 成立,则称 为方阵A的特征值,非零向量x称为A对应于特征值“ ”的特征向量. 详见1.3.5和1.3.6节:特征值分解问题. 例1-89  求矩阵 的特征值和特征向量 解: >>A=[-2  1  1;0  2  0;-4  1  3]; >>[V,D]=eig(A) 结果显示: V = -0.7071   -0.2425    0.3015 0          0    0.9045 -0.7071   -0.9701  

好文!特征值和特征向量的几何和物理意义 【转载东山狼的blog】

我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量.在这个变换的过程中,原向量主要发生旋转.伸缩的变化.如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值. 实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义.物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定.特征值大于1,所有属于此特征值的特征向量身形