自适应滤波:奇异值分解SVD

作者:桂。

时间:2017-04-03  19:41:26

链接:http://www.cnblogs.com/xingshansi/p/6661230.html

声明:欢迎被转载,不过记得注明出处哦~



【读书笔记10】

前言

广义逆矩阵可以借助SVD进行求解,这在上一篇文章已经分析。本文主要对SVD进行梳理,主要包括:

  1)特征向量意义;

  2)特征值分解与SVD;

  3)PCA与SVD;

内容为自己的学习记录,其中多有借鉴他人之处,最后一并给出链接。

一、特征向量

第一反应是:啥是特征向量?为什么好好的一个矩阵,要拆成这个模样?先看定义

$Av = \lambda v$

矩阵对应线性变换,可以看到特征向量是这样:线性变换后,只伸缩既不平移、也不旋转。如计算$A^5v$,可以直接用$\lambda^5 v$,省去多少计算?

维基百科有一张图很直观:

她的微笑是不是有熟悉的味道o(^▽^)o?不过这里不解读微笑,看红线→:矩阵线性变换后,方向也发生了改变,所以它不是特征向量; 蓝线→:线性变换之后,方向不变,所以是特征向量。由此也可见,特征向量是一个族,而不是独一无二的。

二、奇异值分解

  A-特征值分解(EVD,Eigenvalues Decomposition)

这里分析酉矩阵,假设矩阵$\bf{B}$具有${\bf{B}} = {\bf{A}}{{\bf{A}}^H}$的形式,根据特征值定义:

根据酉矩阵特性:

${\bf{B}} = {\bf{U}}\Lambda {{\bf{U}}^H}$

这里仍然可以写成求和的形式,这也是显然的:酉矩阵张成的空间,就是每一个维度成分的叠加嘛。

  B-奇异值分解(SVD,Singularly Valuable Decomposition)

根据矩阵变换特性:

其中$\bf{A}$是$m$x$n$的矩阵,$\bf{U_o}$为$m$x$m$,$\bf{V_o}$为$n$x$n$定义$\bf{B}$,并借助EVD进行分析:

因为是酉矩阵,从而${{\bf{U}}_o} = {\bf{U}}$。${\bf{\Sigma }}$为$m$x$n$,且,${s_i} = \sqrt {{\lambda _i}}, i=1,2,...min(m,n)$,至此完成$\bf{U_o}$和${\bf{\Sigma }}$的求解,还剩下$\bf{V_o}$。

对于${\bf{V_o}}$则有:

${\bf{AV_o}} = {\bf{U\Sigma }}$

即${{\bf{U}}^H}{\bf{A}} = {\bf{\Sigma }}{{\bf{V_o}}^H}$,因为有对角阵,转化为向量运算很方便,对于缺失的部分可以借助施密特正交化进行补全。

至此完成SVD分解。

总结SVD思路:

步骤一:利用$AA^H$求解矩阵$U$,并构造$S$;

步骤二:求解$V_o$,并借助施密特正交化构造完整的$V$。

特征值求解、施密特正交化,任何一本线性代数应该都有,所以这里假设特征值分解EVD、施密特正交化直接调用,给出SVD求解的代码(与svd指令等价):

a = [ 1     7     5
     1     6     4
     2     7     8
    10     5     4]‘;
[E,D] = eig(a*a‘);
%预处理
[val,pos] = sort(diag(D),‘descend‘);
E = E(:,pos);
D = diag(val);
mina = min(size(a));
%SVD分解
U = E; %完成U求解
S = zeros(size(a));
S(1:mina,1:mina) = diag(sqrt(val(1:mina)));%完成S求解
Vo = [U(:,1:mina)‘*a]‘./repmat(diag(S)‘,size(a,2),1);%求解Vo
V = [Vo null(Vo‘)];%完成V求解,补全正交基,可借助施密特正交化

  

三、PCA与SVD

根据上文分析,可以看出SVD或者EVD都可以分解出特征值以及特征向量。

再来回顾以前PCA一文的求解思路:

  • 步骤一:数据中心化——去均值,根据需要,有的需要归一化——Normalized;
  • 步骤二:求解协方差矩阵;
  • 步骤三:利用特征值分解/奇异值分解 求解特征值以及特征向量
  • 步骤四:利用特征向量构造投影矩阵
  • 步骤五:利用投影矩阵,得出降维的数据。

PCA的核心就是根据特征值的大小/总的比例  确定对应特征向量的个数,从而构造投影矩阵。简而言之:有了特征值、特征向量,也就相当于有了PCA

而EVD/SVD是得到特征值、特征向量的方式,可以说EVD/SVD是PCA的基础,PCA是二者的应用方式。

时间: 2024-08-08 13:54:56

自适应滤波:奇异值分解SVD的相关文章

奇异值分解(SVD) --- 几何意义 (转载)

PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义.能在有限的篇幅把 这个问题讲解的如此清晰,实属不易.原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理 解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD. 原文:We recommend a singular value decomposition 关于线性变换部分的一些知识可以猛戳这里  奇异值分解(S

自适应滤波——第二章:维纳滤波器(1)

作者:桂. 时间:2017-03-23  06:28:45 链接:http://www.cnblogs.com/xingshansi/p/6603263.html 声明:欢迎被转载,不过记得注明出处哦~ 前言 仍然是西蒙.赫金的<自适应滤波器原理>第四版,距离上次看这本书已经过去半个月,要抓点紧了.本文主要包括: 1)何为维纳滤波器(Wiener Filter); 2)Wiener滤波器的推导: 内容为自己的学习总结,内容多有参考他人,最后一并给出链接. 一.维纳滤波器简介 A-基本概念 对于

[机器学习笔记]奇异值分解SVD简介及其在推荐系统中的简单应用

本文先从几何意义上对奇异值分解SVD进行简单介绍,然后分析了特征值分解与奇异值分解的区别与联系,最后用python实现将SVD应用于推荐系统. 1.SVD详解 SVD(singular value decomposition),翻译成中文就是奇异值分解.SVD的用处有很多,比如:LSA(隐性语义分析).推荐系统.特征压缩(或称数据降维).SVD可以理解为:将一个比较复杂的矩阵用更小更简单的3个子矩阵的相乘来表示,这3个小矩阵描述了大矩阵重要的特性. 1.1奇异值分解的几何意义(因公式输入比较麻烦

自适应滤波:最小均方误差滤波器(LMS、NLMS)

作者:桂. 时间:2017-04-02  08:08:31 链接:http://www.cnblogs.com/xingshansi/p/6658203.html 声明:欢迎被转载,不过记得注明出处哦~ [读书笔记08] 前言 西蒙.赫金的<自适应滤波器原理>第四版第五.六章:最小均方自适应滤波器(LMS,Least Mean Square)以及归一化最小均方自适应滤波器(NLMS,Normalized Least Mean Square).全文包括: 1)LMS与维纳滤波器(Wiener F

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的.在上篇文章中便是基于特征值分解的一种解释.特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计

奇异值分解(SVD)

特征值分解是利用矩阵的对角化来完成的:A=Q∧Q-1,但这种分解方法需要满足一个前提条件,即A是方阵. 奇异值分解(SVD)可以对m x n的矩阵进行分解.我们希望找到一个n x n的正交方阵V.一个m x m的正交方阵U和一个m x n的矩阵∑,使得A满足式子AV=U∑.因为V是正交矩阵,所以V是可逆,且V-1=VT,所以AV=U∑又可以写成A=U∑VT.下面分两步来找到V和U. 1)注意到ATA是一个对称方阵,如果存在一个n x n的正交方阵V.一个m x m的正交方阵U和一个m x n的矩

奇异值分解(SVD)原理详解及推导

声明:转自http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系.前段时间看了国外的一篇文章,叫A Singularly Valuable Decomposition The SVD of a Matrix,觉得分析的特别好,把矩阵和空间关系对应了起来.本文就参考了该文并结合矩阵的相关知识把SVD原理梳理一下. SVD不

用 GSL 求解超定方程组及矩阵的奇异值分解(SVD)

用 GSL 求解超定方程组及矩阵的奇异值分解(SVD) 最近在学习高动态图像(HDR)合成的算法,其中需要求解一个超定方程组,因此花了点时间研究了一下如何用 GSL 来解决这个问题. GSL 里是有最小二乘法拟合(Least-Squares Fitting)的相关算法,这些算法的声明在 gsl_fit.h 中,所以直接用 GSL 提供的 gsl_fit_linear 函数就能解决这个问题.不过我想顺便多学习一些有关 SVD 的知识.所以就没直接使用 gsl_fit_linear 函数. SVD

【简化数据】奇异值分解(SVD)

[简化数据]奇异值分解(SVD) @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/42214205 1.简介 奇异值分解(singular Value Decomposition),简称SVD,线性代数中矩阵分解的方法.假如有一个矩阵A,对它进行奇异值分解,可以得到三个矩阵: 这三个矩阵的大小: 矩阵sigma(即上图U和V中间的矩阵)除了对角元素不为0,其他元素都为0,并且对角元素是从大到小排列的,前面的元

自适应滤波

应用: ① ② ③ 公式: 自适应滤波器中最重要的一个环节就是其系数的更新算法,如果不对自适应滤波器的系数更新的话,那么它就只是一个普通的FIR滤波器了.系数更新算法有很多种类,最基本.常用.简单的一种方法叫做NLMS(归一化最小均方),让我们先来看看它的数学公式表达: 设置自适应滤波器系数h的所有初始值为0,h的长度为I. 对每个取样值进行如下计算,其中n=0, 1, 2, ... 自适应滤波器系数 是一个长度为I的矢量,也就是一个长度为I的FIR滤波器.在时刻n,滤波器的每个系数对应的输入信