P0问题求解相关算法

1.OMP

搜寻最小误差即求<>的最大值

对误差求导,

即, A中对应SS的列与残差正交。

算法步骤:

输入稀疏向量x(m*1),列归一化矩阵A(n*m),理想输出b,稀疏度K,误差精度

初始化残差r1为b

找到A‘*r1的最大值所在索引posZ(列索引,有相对应的x的元素)

更新索引向量SS=sort([SS,posZ(1)])

找到||A(:,SS)x-b||最小二乘解x0= pinv(A(:,SS))*b

求残差r1=b-A(:,SS)*x0= b-A(:,SS)* pinv(A(:,SS))*b,

(这里可以理解为【b-b在A(:,SS)上的正交投影】,A(:,SS)* pinv(A(:,SS))为正交投影算子,因此下一次寻找索引时SS所在列不会再次选入)

while迭代直到残差满足条件(可多次循环)

输出向量为x0,求误差r2(利用2范数norm)2.LS-OMP

与OMP不同之处在于索引posZ的搜索:

对A的所有累积的列和备选的一列求残差r1,索引posZ则为残差最小的一列,后面步骤相同

n=20;m=30;
A=randn(n,m);
W=sqrt(diag(A‘*A));
for k=1:1:m
    A(:,k)=A(:,k)/W(k);
end
for S=1:1:10
    for ex=1:1:50
    x=zeros(m,1);
    pos=randperm(m);
    x(pos(1:S))=sign(randn(S,1)).*(1+rand(S,1));  %x的稀疏度为S,即稀疏度逐渐增加到Smax
    b=A*x;
    thrLSMP=1e-4;
    %LS-OMP
    r=b;
    SS=[];
    while r‘*r>thrLSMP
        z=zeros(m,1);
        for j=1:1:m
            rtemp=b-A(:,[SS,j])*pinv(A(:,[SS,j]))*b;
            z(j)=rtemp‘*rtemp;
        end
        posZ=find(z==min(z),1);
        SS=[SS,posZ(1)];
        r=b-A(:,SS)*pinv(A(:,SS))*b;
    end
    x0=zeros(m,1);
    x0(SS)=pinv(A(:,SS))*b;
    r0(S,ex)=mean((x0-x).^2)/mean(x.^2);

    %OMP
    r=b;
    SS=[];
    while r‘*r>thrLSMP
        z=abs(A‘*r);
        posZ=find(z==max(z),1);
        SS=[SS,posZ];
        r=b-A(:,SS)*pinv(A(:,SS))*b;
    end
    x0=zeros(m,1);
    x0(SS)=pinv(A(:,SS))*b;
    r1(S,ex)=mean((x0-x).^2)/mean(x.^2);
    end
end
figure(1);
plot(1:10,mean(r0(:,:),2),‘r-‘);hold on;
plot(1:10,mean(r1(:,:),2),‘k-‘);
legend(‘ls-OMP‘,‘OMP‘);
xlabel(‘K=1:10‘);
ylabel(‘err‘);

  

3.MP

与OMP不同之处在于残差的更新,MP不对索引值进行保留和更新,而是通过当前找到的一个索引值posZ(不是累积的SS)求残差,并更新输出向量xMP(posZ)=xMP(posZ)+A(:,posZ)‘*r1;

注:在正交匹配追踪OMP中,对应SS的A的列(即所有曾被选为posZ对应的列)均与残差正交,故不会被再次选为posZ,所以能保证快速收敛;而在MP中,只能保证上一步索引值对应的列与残差正交。

4. 阈值算法

OMP的简化版本。仅根据第一个投影取出索引值posZ,即

Z=A‘*b;

[Za,posZ]=sort(abs(Z),‘descend‘);

5. IRLS-noNoise

该算法与P1问题的IRLS比较接近,但该算法着重于l0范数的松弛,即lp(0<p<=1)。另外,与IRLS:|b-Ax|< 不同(利用最小二乘,即残差平方和),IRLS-noNoise针对的b=Ax(利用拉格朗日乘子,即直接求导等于0),即无噪声情况。

该算法可用于FOCUSS(两者有什么不同吗?。。。。)

同样的,引入

不可逆,则=

注:在后面的计算中,都不使用逆,而是伪逆

P0问题转换为M问题:q=1时,即P0问题;q=0.5时,即P1问题

用伪逆代替逆:

然后迭代一定次数即可得到比较好的解。

n=20;m=30;
A=randn(n,m);
W=sqrt(diag(A‘*A));
for k=1:1:m
    A(:,k)=A(:,k)/W(k);
end
for S=1:1:10
    x=zeros(m,1);
    pos=randperm(m);
    x(pos(1:S))=sign(randn(S,1)).*(1+rand(S,1));  %x的稀疏度为S,即稀疏度逐渐增加到Smax
    b=A*x;
    for k=1:1:20
    %IRLS—noNoise
    p=1;%l0 norm
    %p=0.5; l1 norm
    XX=diag(abs(x).^p);
    XX2=XX*XX;
    x0=XX2*A‘*pinv(A*XX2*A‘)*b;
    rr3(k)=mean((x0-x).^2)/mean(x.^2);
    end
    r3(S)=rr3(20);
end
plot(r3);
title(‘err of IRLS-noNOISE‘);

  

注:IRLS运行速度很快,而且可以实现很小的误差,是P0问题比较好的解法。

时间: 2024-10-09 10:10:16

P0问题求解相关算法的相关文章

P1问题求解相关算法

1. BP 利用matlab的线性规划工具箱,即linprog 主要思想:如何将P1问题转换为线性规划问题 即由3.1变为3.2 令x=[u; v],其中u,v均为正,a=u-v A=[phi,-phi]  (显示不了符号,读出来就好... ) b=s 则b=Ax=(u-v)=a=s 求解:x0=linprog(c,[],[],A,b,zeros(2*p,1)); 问题P1的最优解即为x0(1:p)-x0(p+1:2p) 注:这里要去掉绝对值,证明如下: 2. BPDN 基追踪去噪 利用quad

探索推荐引擎内部的秘密,第 2 部分: 深入推荐引擎相关算法 - 协同过滤(转)

第 2 部分: 深入推荐引擎相关算法 - 协同过滤 本系列的第一篇为读者概要介绍了推荐引擎,下面几篇文章将深入介绍推荐引擎的相关算法,并帮助读者高效的实现这些算法. 在现今的推荐技术和算法中,最被大家广泛认可和采用的就是基于协同过滤的推荐方法.它以其方法模型简单,数据依赖性低,数据方便采集 , 推荐效果较优等多个优点成为大众眼里的推荐算法“No.1”.本文将带你深入了解协同过滤的秘密,并给出基于 Apache Mahout 的协同过滤算法的高效实现.Apache Mahout 是 ASF 的一个

数据结构(C语言版)顺序栈相关算法的代码实现

这两天完成了栈的顺序存储结构的相关算法,包括初始化.压栈.出栈.取栈顶元素.判断栈是否为空.返回栈长度.栈的遍历.清栈.销毁栈.这次的实现过程有两点收获,总结如下: 一.清楚遍历栈的概念 栈的遍历指的是从栈底想栈顶方向运行visit()函数,这是之前的学习中所忽略的:栈的遍历解除了栈的输出顺序只能从栈顶像栈底方向的限制. 二.清空栈时要不要将stacksize重置 网上看到有的人在实现清空栈这一功能时,将stacksize重置为0,我觉得有点问题,起初的想法是将其重置为初始化时的值,在与同学讨论

加密类型及其相关算法

在互联网通信过程中,如何保证数据的安全性? 在通信过程中,数据安全主要从三个方面考虑:机密性(数据的内容不能被窃取) 完整性(数据的内容不能被修改) 身份验证(确定通信双方的身份) 加密类型:1.对称加密,加密和解密使用同一个密钥,但是密钥如何安全传输比较重要,对称加密数度较快,适于加密数据 2.单向加密,提取数据指纹,主要用于保证数据的完整性 单向加密的特点:输入相同则输出一定相同 雪崩效应:输入的微小改变会引起结果的巨大反差 定长输出 3.非对称加密,使用一对密钥(public-key和pr

探索推荐引擎内部的秘密,第 3 部分: 深入推荐引擎相关算法 - 聚类

聚类分析 什么是聚类分析? 聚类 (Clustering) 就是将数据对象分组成为多个类或者簇 (Cluster),它的目标是:在同一个簇中的对象之间具有较高的相似度,而不同簇中的对象差别较大.所以,在很多应用中,一个簇中的数据对象可以被作为一个整体来对待,从而减少计算量或者提高计算质量. 其实聚类是一个人们日常生活的常见行为,即所谓"物以类聚,人以群分",核心的思想也就是聚类.人们总是不断地改进下意识中的聚类模式来学习如何区分各个事物和人.同时,聚类分析已经广泛的应用在许多应用中,包

linux学习之路之加密类型及其相关算法

加密类型及其相关算法 随着互联网越演越烈,互联网上的各种攻击层出不穷,因此在互联网上相互传递的信息越来越不安全,因此为了防止用户在互联网上传递的数据被窃取,因此我们很有必须加强传递的数据的安全性. 数据的安全性主要包括以下三个方面: 数据的机密性:保证传递的数据不被读取 要想使传递的数据不被读取,可以对这些数据进行加密,因为默认这些数据是以明文来传递的 整个加密过程可以这么来理解: 加密:plaintext--->转换规则--->ciphertext 解密:ciphertext--->转

二分查找的相关算法题

最近笔试经常遇到二分查找的相关算法题 1)旋转数组中的最小数字 2)在旋转数组中查找某个数 2)排序数组中某个数的出现次数 下面我来一一总结 1 旋转数组的最小数字 题目:把一个数组最开始的若干个元素搬到数组的末尾,我们称之为数组的旋转.输入一个递增排序的数组的一个旋转,输出旋转数组的最小元素.例如数组{3,4,5,1,2}为{1,2,3,4,5}的一个旋转,该数组的最小值为1. 实现数组的旋转见左旋转字符串. 和二分查找法一样,用两个指针分别指向数组的第一个元素和最后一个元素. 我们注意到旋转

深入推荐引擎相关算法 - 协同过滤

集体智慧和协同过滤 什么是集体智慧 集体智慧 (Collective Intelligence) 并不是 Web2.0 时代特有的,只是在 Web2.0 时代,大家在 Web 应用中利用集体智慧构建更加有趣的应用或者得到更好的用户体验.集体智慧是指在大量的人群的行为和数据中收集答案,帮助你对整个人群得到统计意义上的结论,这些结论是我们在单个个体上无法得到的,它往往是某种趋势或者人群中共性的部分. Wikipedia 和 Google 是两个典型的利用集体智慧的 Web 2.0 应用: Wikip

容器set相关算法

 set_union 算法set_union可构造S1.S2的并集.此集合内含S1或S2内的每一个元素.S1.S2及其并集都是以排序区间表示.返回值是一个迭代器,指向输出区间的尾端. 由于S1和S2内的每个元素都不需唯一,因此,如果某个值在S1出现n次,在S2出现m次,那么该值再输出区间中会出现max(m,n)次,其中n个来自S1,其余来自S2.在STL set容器内,m小于等于1,n小于等于1. template <class InputIterator1,classInputIterat