压缩感知(八)

奈奎斯特采样定理NOTE:

定理:为了不失真地恢复模拟信号,离散信号系统的采样频率不小于模拟信号频谱中最高频率的2倍。

在时域上,频带为F的连续信号f(t)可用一系列离散的采样值f(t1),f(t1+Δt),f(t1+2Δt)…来表示,只要这些采样点的时间间隔Δt<=1/2F,便可根据各采样值完全恢复原始信号。

在频域上,当时间信号函数f(t)的最高频率分量为fmax时,f(t)的值可由一系列采样间隔小于或等于1/2fmax的采样值来确定,即采样点的重复频率为fs>=2fmax。

采样定理指出,只要离散系统的奈奎斯特频率高于采样信号的最高频率或带宽,就可以避免混叠现象。从理论上说,即使奈奎斯特频率恰好大于信号带宽,也足以通过信号的采样重建原信号。但是,重建信号的过程需要以一个低通滤波器或者带通滤波器将在奈奎斯特频率之上的高频分量全部滤除,同时还要保证原信号中频率在奈奎斯特频率以下的分量不发生畸变,而这是不可能实现的。在实际应用中,为了保证抗混叠滤波器的性能,接近奈奎斯特频率的分量在采样和信号重建的过程中可能会发生畸变。因此信号带宽通常会略小于奈奎斯特频率,具体的情况要看所使用的滤波器的性能。需要注意的是,奈奎斯特频率必须严格大于信号包含的最高频率。如果信号中包含的最高频率恰好为奈奎斯特频率,那么在这个频率分量上的采样会因为相位模糊而有无穷多种该频率的正弦波对应于离散采样,因此不足以重建为原来的连续时间信号。

压缩感知与奈奎斯特采样定理:

从采样的角度来看,压缩感知和基于奈奎斯特采样定理的传统信号采集是两种不同形式的信号采集方式。(压缩感知打破了传统信号处理中对于奈奎斯特采样要求的限制)

采样率:在压缩感知理论下,信号的采样率不再取决于信号的带宽,而是取决于信息在信号中的结构与内容(稀疏性)。关于采样率的计算方式,压缩感知是从少量离散测量数据恢复离散数字信号,其计算方式为采样率=测量值的大小/恢复信号的大小;而传统信号采集是从离散采样数据中恢复模拟信号(时序信号),采样率指的是一个采集频率,在我看来,这两者定义的采样率不具有可比性。(但从绝对值来看,压缩感知的采集数据量应该是小于或远小于传统采集)。

信号采集方式:传统采样理论是通过均匀采样(极少情况下也采用非均匀采样)获取数据;压缩感知则通过计算信号与一个观测函数之间的内积来获得观测数据(AX=b);

恢复信号形式:传统采样定理关注的对象是无限长的连续信号;压缩感知是有限维观测向量空间的向量(离散信号);

恢复信号方式:传统采样恢复是在Nyquist采样定理的基础上,通过采样数据的sinc函数线性内插获得(在不均匀采样下则是非线性的插值恢复),而压缩感知采用的是利用信号的稀疏性,从线性观测数据中通过求解一个非线性的优化问题来恢复信号的方法。

压缩感知的核心思想:压缩和采样合并进行,并且测量值远小于传统采样方法的数据量,突破香农采样定理的瓶颈,使高分辨率的信号采集成为可能。

传统压缩:

传统的信号获取与处理过程包括:采样、压缩、传输、解压缩四个部分,其采样过程必须遵循奈奎斯特采样定理,这种方式采样数据量大,先采样后压缩,浪费了大量的传感元、时间和存储空间。

压缩感知与传统压缩:

从过程角度看,传统压缩是先采样后压缩,而压缩感知是边采样边压缩,即采样值就是压缩后的值,这样的好处就是可以减少传感元数量,降低采集、传输时间,降低存储空间等。

从压缩(编码)方式看,传统压缩主要是通过变换的方式(变换域的稀疏性)来实现压缩(有损压缩),即熟知的DCT变换、小波变换等,而压缩感知是基于稀疏变换的来采用随机线性投影测量来进行压缩(满足测量矩阵与稀疏基的不相关性)。

从重构(解码)方式看,传统压缩主要是通过逆变换的方式来重构信号,而压缩感知是通过非线性的重构算法(最优化方法)来恢复信号。

从复杂度看,传统压缩是压缩(编码)难,而重构(解码)易;而压缩感知恰恰相反,压缩(编码)易,而重构(解码)难,这样的特性适用于某些苛刻环境下。

原文地址:https://www.cnblogs.com/wangyinan0214/p/12331088.html

时间: 2024-10-31 15:29:46

压缩感知(八)的相关文章

浅谈压缩感知(二十八):压缩感知重构算法之广义正交匹配追踪(gOMP)

主要内容: gOMP的算法流程 gOMP的MATLAB实现 一维信号的实验与结果 稀疏度K与重构成功概率关系的实验与结果 一.gOMP的算法流程 广义正交匹配追踪(Generalized OMP, gOMP)算法可以看作为OMP算法的一种推广.OMP每次只选择与残差相关最大的一个,而gOMP则是简单地选择最大的S个.之所以这里表述为"简单地选择"是相比于ROMP之类算法的,不进行任何其它处理,只是选择最大的S个而已. gOMP的算法流程: 二.gOMP的MATLAB实现(CS_gOMP

压缩感知(compressed sensing)科普两则

文章贴自:http://www.cvchina.info/2010/06/08/compressed-sensing-2/#more-1173 这是数学家陶哲轩在他自己的blog上写的一篇科普文章,讨论的是近年来在应用数学领域里最热门的话题之一:压缩感知(compressed sensing). 所谓压缩感知,最核心的概念在于试图从原理上降低对一个信号进行测量的成本.比如说,一个信号包含一千个数据,那么按照传统的信号处理理论,至少需要做一 千次测量才能完整的复原这个信号.这就相当于是说,需要有一

数字图像处理,初识压缩感知Compressive Sensing

声明: 本文为转载, 原作者Rachel-Zhang. 原博客地址:http://blog.csdn.net/abcjennifer 原文地址,http://blog.csdn.net/abcjennifer/article/details/7721834/ 压缩感知是近年来极为热门的研究前沿,在若干应用领域中都引起瞩目.最近粗浅地看了这方面一些研究,对于Compressive Sensing有了初步理解,在此分享一些资料与精华.本文针对陶哲轩和Emmanuel Candes上次到北京的讲座中对

压缩感知先进——关于稀疏矩阵

前<初识压缩感知Compressive Sensing>中我们已经讲过了压缩感知的作用和基本想法,涉及的领域,本文通过学习陶哲轩对compressive sensing(CS)的课程,对压缩感知做进一步理解.针对其原理做出解说.本文较为理论性,代码请參考<"压缩感知"之"Hello world">. Keywords: 压缩感知 compressive sensing, 稀疏(Sparsity).不相关(Incoherence).随机性(Ra

浅谈压缩感知(十五):测量矩阵之spark常数

在压缩感知中,有一些用来评价测量矩阵的指标,如常见的RIP等,除了RIP之外,spark常数也能够用来衡量能否成为合适的测量矩阵. 1.零空间条件NULL Space Condition 在介绍spark之前,先考虑一下测量矩阵的零空间. 这里从矩阵的零空间来考虑测量矩阵需满足的条件:对于K稀疏的信号x,当且仅当测量矩阵的零空间与2K个基向量张成的线性空间没有交集,或者说零空间中的向量不在2K个基向量张成的线性空间中. 上述描述的性质似乎有点难懂,那么与之等价的表述就是spark常数. 2.sp

压缩感知中常用的观测矩阵

接上文:<压缩感知中常用的待还原信号种类>,http://blog.csdn.net/zhyoulun/article/details/25600311 在压缩感知中,观测矩阵就是指y=Ax中的A.A是一个n*m的矩阵,矩阵中的每一个元素独立同分布于一个特定的分布.分布的种类如下: 1.USE.一致球集合,Uniform spherical ensemble,首先计算出一个n*m的矩阵,矩阵中的每一个元素服从标准正态分布,然后对这个矩阵的每一列做归一化. 2.RSE.随机信号集合,Random

浅谈压缩感知(三十):压缩感知重构算法之L1最小二乘

主要内容: l1_ls的算法流程 l1_ls的MATLAB实现 一维信号的实验与结果 前言 前面所介绍的算法都是在匹配追踪算法MP基础上延伸的贪心算法,从本节开始,介绍基于凸优化的压缩感知重构算法. 约束的凸优化问题: 去约束的凸优化问题: 在压缩感知中,J函数和H函数的选择: 那么,后面要解决的问题就是如何通过最优化方法来求出x. 一.l1_ls的算法 l1_ls,全称?1-regularized least squares,基于L1正则的最小二乘算法,在标准内点法的基础上,在truncate

浅谈压缩感知(九):范数与稀疏性

问题: 压缩感知问题求稀疏解时,一般采用0范数或者1范数来建立数学模型.那么为什么0范数或1范数可以得到稀疏解呢? 解释与分析: 1.范数 常见的有L0范数.L1范数.L2范数,经常要将L0范数等价为L1范数去求解,因为L1范数求解是一个凸优化问题,而L0范数求解是一个NP难问题. L0范数指的是x中非零元素的个数,即x的稀疏度,如果x是K稀疏的,则l0范数等于K: L1范数指的是x中所有元素模值的和: L2范数指的是x中所有元素模值平方的和 再平方,这个带公式就可以了,它代表着距离的概念: 还

压缩感知中常用的待还原信号种类

研究压缩感知的一个基本工作就是生成原始的信号,也就是y=Ax中的x.一般来说,x是一个长度为N的列向量,稀疏度为k,其中x的非零位置组成的集合称作支撑集T. x中的非零元素集合一般独立同分布四种随机分布. 1.Uniform,开区间(0,1)上的均匀分布. 2.Signs,伯努利分布,待选集合为{-1,1},等概率选取. 3.Gaussian,标准正态分布N(0,1) 4.Power,能量法则,1/j,j=1,...,k的某个排列组合. 基于这些生成的向量,我们就可以进一步做算法研究了,比如算法