传统思路——正交变换
对于一维的信号 x ∈ R N×1 ,大多数情况下,信息是冗余的。我们可以通过正交变换的方法来压缩它。正变换: y = Ψx , 反变换 x = Ψ H y 。这里, ΨΨ H = Ψ H Ψ = I , Ψ ∈ C N×N ,I 是单位矩阵。对于 y ∈ C N×1 ,能量较 x 集中,本质上去除了 x 中的相关性。因此,我们只保留 K 个较大的分量,而把其它 N − K 个置为零。通过反变换,我们能够近乎完美的重建原始信号。因为,那 N − K 个变换域系数的贡献,实在微乎其微。具有这样性质的信号被称为 K “稀疏”(Sparsity)的。于是,我们有了如下编码解码的策略:
编码:构造 Ψ ,做正变换 y = Ψx ,保留 y 中最重要的 K 个分量,和其对应的位置。
解码:把 K 个分量放回到对应的位置,其它位置填 0,构造 Ψ H ,反变换 x ˆ = Ψ H y ˆ 。
而解码能否近乎得到原始信号呢?显然,我们希望|| x − x ˆ ||2 =|| y − y ˆ ||2 ≤ δ , δ 是一个小的常数。但更有效的是用相对误差|| y − y ˆ ||2 / || y ||2 ≤ δ 。
但这种编码解码方法有些缺点:
1、考虑到香农(Shannon)采样定理,为了获得很好的信号分辨率,采样间隔会很小,造成了原始信号长度会很长,因此变换过程会消耗很长的时
间。
2、 K 个需要保留的重要分量的位置,是随着信号的不同而不同的。因此,这种策略是
“自适应” (Adaptive)的,且需要分配多余的空间存储这些位置。
3、一旦在传输过程中个分量中的某几个丢失了,后果可想而知。如果我们制作一个音频设备,1 将带来电力的消
耗和用户的不满,2 将带来存储空间的增加,3 将带来较差的抗干扰能力。