压缩感知入门(一)

  1.压缩感知引言



  

压缩感知(compressed sensing),又名压缩采样,利用原始场景自身的或变换到某个域后的稀疏性,采用更少的测量次数,获取足够的能重建原始场景的信息。

 比如场景生成的图片有200万个像素,每个像素用8位比特表示,需要2MB的存储空间,但去除冗余后的有效像素只有10万个。那么我们找出这10万个有效像素,就能够较好的重建出原始图像,实现较好的图像压缩和重建。接下来有两个问题:1)如何找出这关键的10万个像素,也即组成整幅图像的“基”?2)除了这10万个像素,其余的190万个像素对图像的细节也有帮助,只保留这10万个像素也许会造成图像失真,如何解决?先来考虑第一个问题吧。

  考虑二维情况,假设x0为自然场景,y0是成像结果,把它们repmat到1维列向量,变为N*1的x和M*1的y,其中M<<N。那么x和y的关系可以描述为 y = Φx ,其中Φ 是M*N的测量矩阵。现在的研究热点有两个:1.如何通过N*1的y恢复出M*1的x,这是一个欠定问题。2.设计n尽量小的Φ。

2.稀疏信号的恢复



 对x进行稀疏表示为x = Ψθ ,其中Ψ称为基矩阵、稀疏矩阵,大小是N*N, θ是K稀疏的,是信号在某变换域的稀疏表示。所以y = ΦΨθ = Aθ,其中A为观测矩阵。

  在恢复数据时我们通常有两种办法,第一种是匹配追踪(matching pursuit):找出图像的一个基向量(小波),去除小波在图像中的分量,继续找新的与以前线性无关的向量,并移除相关的图像向量,不断重复直到这组基向量能解释所有的数据。第二种是基追踪(basis pursuit),在所有与数据(image)匹配的小波组合中,找出一个“最稀疏”的基,也就是其中所有系数的绝对值总和越小越好。(这种最小化的结果趋向于迫使绝大多数系数都消失了。),从而获取最稀疏的表达,增大压缩率。这种最小化算法可以用单纯形之类的凸优化算法,在合理的时间内算出来。第一种办法运算块,第二种办法在有噪声时效果更好。

  先来了解范数,第0范数表示向量非零元素个数,第p范数的定义为

  

如果用第0范数解压缩问题,即

用Δ0(y)表示P0的解,即在所有满足线性方程组的向量x中,选择非0元素最少的。

有如下定理:

因为P0是一个NP完全问题,求解十分不平凡,所以考虑更高的范数,将解码定义为如下问题的解:

y = Φx 等价于 y = Φx 和 Φx = 0的叠加,

可以用零空间性质给出P1和P0的解一致的充要条件,但是难以从理论上证明某矩阵Φ是否满足零空间性质。所以考虑矩阵RIP性质。

3.RIP定义



RIP的定义为

RIP的理解思路:

1)能量说。RIP采用第二范数的平方(能量),描述了稳定的能量性质。不等式同时除以||x||22,得到能量的商介于一个范围,也就是保持原场景K个重要分量的长度/能量,如果场景是K稀疏的话。

2)与正交矩阵的相似性。如果Φ是个正交矩阵,那么不等式一定成立,但由于为了减小测量量,Φ是行少于列的矩阵,所以δ是用来描述Φ和正交矩阵的相似性的,δ越小,越相似。

3)唯一映射性。RIP性质(有限等距性质)保证了感知矩阵不会把两个不同的K稀疏信号映射到同一个集合中(保证原空间到稀疏空间的一一映射关系),要求从感知矩阵中抽取的每2K个列向量构成的矩阵是非奇异的。

4.RIP补充



上面我们讨论的都是观测矩阵A,(我们考虑的是在变换基上的稀疏表示的x,即θ),实际中常使用的是测量矩阵Φ,那怎样才能让测量矩阵满足RIP要求呢?

因为RIP可以刻画成“一个矩阵和标准正交阵的相似程度”,所以测量矩阵所需要满足的性质就是尽量保证其基向量和稀疏表示的基不相关。实际中,比如高斯随机矩阵,二值随机矩阵,局部傅立叶矩阵,局部哈达妈矩阵等都能以很大的概率满足RIP。

5.引用文献



http://www.cnblogs.com/AndyJee/p/5085827.html

http://blog.csdn.net/abcjennifer/article/details/7721834

Compressed sensing and single-pixel cameras - Terrytao

压缩感知,许志强,2012年1月12日

时间: 2024-11-06 17:39:18

压缩感知入门(一)的相关文章

Real-Time Compressive Tracking,实时压缩感知跟踪算法解读

这是Kaihua Zhang发表在ECCV2012的paper,文中提出了一种基于压缩感知(compressive sensing)的单目标跟踪算法,该算法利用满足压缩感知(compressive sensing)的RIP(restricted isometry property)条件的随机测量矩阵(random measurement matrix)对多尺度(multiple scale)的图像特征(features)进行降维,然后通过朴素贝叶斯分类器(naive Bayes classifi

压缩感知先进——关于稀疏矩阵

前<初识压缩感知Compressive Sensing>中我们已经讲过了压缩感知的作用和基本想法,涉及的领域,本文通过学习陶哲轩对compressive sensing(CS)的课程,对压缩感知做进一步理解.针对其原理做出解说.本文较为理论性,代码请參考<"压缩感知"之"Hello world">. Keywords: 压缩感知 compressive sensing, 稀疏(Sparsity).不相关(Incoherence).随机性(Ra

压缩感知(compressed sensing)科普两则

文章贴自:http://www.cvchina.info/2010/06/08/compressed-sensing-2/#more-1173 这是数学家陶哲轩在他自己的blog上写的一篇科普文章,讨论的是近年来在应用数学领域里最热门的话题之一:压缩感知(compressed sensing). 所谓压缩感知,最核心的概念在于试图从原理上降低对一个信号进行测量的成本.比如说,一个信号包含一千个数据,那么按照传统的信号处理理论,至少需要做一 千次测量才能完整的复原这个信号.这就相当于是说,需要有一

数字图像处理,初识压缩感知Compressive Sensing

声明: 本文为转载, 原作者Rachel-Zhang. 原博客地址:http://blog.csdn.net/abcjennifer 原文地址,http://blog.csdn.net/abcjennifer/article/details/7721834/ 压缩感知是近年来极为热门的研究前沿,在若干应用领域中都引起瞩目.最近粗浅地看了这方面一些研究,对于Compressive Sensing有了初步理解,在此分享一些资料与精华.本文针对陶哲轩和Emmanuel Candes上次到北京的讲座中对

浅谈压缩感知(十五):测量矩阵之spark常数

在压缩感知中,有一些用来评价测量矩阵的指标,如常见的RIP等,除了RIP之外,spark常数也能够用来衡量能否成为合适的测量矩阵. 1.零空间条件NULL Space Condition 在介绍spark之前,先考虑一下测量矩阵的零空间. 这里从矩阵的零空间来考虑测量矩阵需满足的条件:对于K稀疏的信号x,当且仅当测量矩阵的零空间与2K个基向量张成的线性空间没有交集,或者说零空间中的向量不在2K个基向量张成的线性空间中. 上述描述的性质似乎有点难懂,那么与之等价的表述就是spark常数. 2.sp

压缩感知中常用的观测矩阵

接上文:<压缩感知中常用的待还原信号种类>,http://blog.csdn.net/zhyoulun/article/details/25600311 在压缩感知中,观测矩阵就是指y=Ax中的A.A是一个n*m的矩阵,矩阵中的每一个元素独立同分布于一个特定的分布.分布的种类如下: 1.USE.一致球集合,Uniform spherical ensemble,首先计算出一个n*m的矩阵,矩阵中的每一个元素服从标准正态分布,然后对这个矩阵的每一列做归一化. 2.RSE.随机信号集合,Random

浅谈压缩感知(三十):压缩感知重构算法之L1最小二乘

主要内容: l1_ls的算法流程 l1_ls的MATLAB实现 一维信号的实验与结果 前言 前面所介绍的算法都是在匹配追踪算法MP基础上延伸的贪心算法,从本节开始,介绍基于凸优化的压缩感知重构算法. 约束的凸优化问题: 去约束的凸优化问题: 在压缩感知中,J函数和H函数的选择: 那么,后面要解决的问题就是如何通过最优化方法来求出x. 一.l1_ls的算法 l1_ls,全称?1-regularized least squares,基于L1正则的最小二乘算法,在标准内点法的基础上,在truncate

浅谈压缩感知(二十八):压缩感知重构算法之广义正交匹配追踪(gOMP)

主要内容: gOMP的算法流程 gOMP的MATLAB实现 一维信号的实验与结果 稀疏度K与重构成功概率关系的实验与结果 一.gOMP的算法流程 广义正交匹配追踪(Generalized OMP, gOMP)算法可以看作为OMP算法的一种推广.OMP每次只选择与残差相关最大的一个,而gOMP则是简单地选择最大的S个.之所以这里表述为"简单地选择"是相比于ROMP之类算法的,不进行任何其它处理,只是选择最大的S个而已. gOMP的算法流程: 二.gOMP的MATLAB实现(CS_gOMP

浅谈压缩感知(九):范数与稀疏性

问题: 压缩感知问题求稀疏解时,一般采用0范数或者1范数来建立数学模型.那么为什么0范数或1范数可以得到稀疏解呢? 解释与分析: 1.范数 常见的有L0范数.L1范数.L2范数,经常要将L0范数等价为L1范数去求解,因为L1范数求解是一个凸优化问题,而L0范数求解是一个NP难问题. L0范数指的是x中非零元素的个数,即x的稀疏度,如果x是K稀疏的,则l0范数等于K: L1范数指的是x中所有元素模值的和: L2范数指的是x中所有元素模值平方的和 再平方,这个带公式就可以了,它代表着距离的概念: 还