随机过程的线性预测

与前面学习过的线性预测一样,随机过程的线性预测是用随机过程某一个采样点上的随机变量的值来预测另外一个采样点上的随机变量的值。

设想有一个离散时间的随机过程$x[n]$,并且已经得到位于采样点$n_0$上的值,现在需要我们去预测采样点$n_0+m$上的值,我们所预测的值用$\hat{x}[n_0+m]$来表示。我们采用的是线性预测器,因此可以假设这两个点之间有如下关系:

$\hat{x}[n_0+m] = ax[n_0]+b$

我们所需要做的就是通过选择合适的系数$a,b$来使得预测值更加准确。一般的预测准则为MMSE,即当所选择的系数$a,b$使得MSE为最小时,就能得到最优的预测值。

$\epsilon = E\{(x[n_0+m]-\hat{x}[n_0+m])^2\}=E\{(x[n_0+m]-ax[n_0]-b)^2\}$

也就是说所选择的系数要使得$\epsilon$的值最小。我们可以通过对上述式子分别求$a,b$的偏导,当偏导数的结果为0时可以得到极值。

$\begin{align*}
\frac{\partial \epsilon}{\partial a} &= E\{(x[n_0+m]-ax[n_0]-b)x[n_0]\}\\
&=E\{x[n_0+n]x[n_0]\}-aE\{x[n_0]x[n_0]\}-bE\{x[n_0]\}\\
&=R_{xx}[n_0+m,n_0]-aR_{xx}[n_0,n_0]-b\mu_x[n_0]\\
&=0\\
\frac{\partial \epsilon}{\partial b} &= E\{x[n_0+m]-ax[n_0]-b\}\\
&=\mu_x[n_0+m]-a\mu_x[n_0]-b\\
&=0\\
&\quad\end{align*}$

如果所处理的随机过程是WSS的话,有$\mu_x[n_0] = \mu_x[n_0+m]$,并且能进行符号简化

$\begin{align*}
\frac{\partial \epsilon}{\partial a}
&=R_{xx}[m]-aR_{xx}[0]-b\mu_x=0\\
\frac{\partial \epsilon}{\partial b}
&=\mu_x-a\mu_x-b=0
\end{align*}$

求解上述方程可以得到

$\begin{align*}a &= \frac{C_{xx}[m]}{C_{xx}[0]}\\b&=\mu_x-\frac{C_{xx}[m]}{C_{xx}[0]}\mu_x\end{align*}$

因此预测值为

$\hat{x}[n_0+m] = \mu_x+\frac{C_{xx}[m]}{C_{xx}[0]}(x[n_0]-\mu_x)$

Reference:

Alan V. Oppenheim: Signals, Systems and Inference, Chapter 9:Random Process

原文地址:https://www.cnblogs.com/TaigaCon/p/9083713.html

时间: 2024-08-03 16:09:20

随机过程的线性预测的相关文章

随机过程

原来一直不太清楚随机过程是怎么回事,它和随机信号和随机变量又有哪些关联?今天就来介绍一下, 随机过程的基本特征主要体下载以下两个方面: 1.它是一个时间的函数 2.在某一个固定的观察时刻,全部样本在t时刻的取值是一个不含时间t变化的随机变量. 用通俗的话来讲,随机过程是指整个过程在时间上是随机的,是一个高斯过程:但是固定在某一个时刻点,它也是随机的,也是一个高斯过程. 随机过程中的任一个实现都经历了随机过程的所有可能的的状态.

通信系统——随机过程

每个样本点是一个时间的函数(叫样本函数),整个样本空间叫随机过程. 有些随机现象不能用一个或几个随机变量来刻画,要用一族无穷多个随机变量来描述,这就是随机过程. 随机过程研究的对象是随时间演变的随机现象,对事物的全过程的观察得到一个时间t的函数.但对同一个事物独立地重复进行多次观察所得的结果是不同的. 随机变量每一次试验的结果是一个数,而随机过程每一次实验的结果是一个函数. 平稳过程是一类统计特性不随时间推移而变化的随机过程. 严平稳随机过程的有限维分布不随时间推移而发生改变. 用定义去证明随机

滤波器专题——随机过程基础

作者:桂. 时间:2017-03-09  21:15:34 链接:http://www.cnblogs.com/xingshansi/p/6527961.html 声明:欢迎转载,不过记得注明出处哦~ 未完待续... [读书笔记01] 前言 这几天打算学一学滤波器的相关原理,看的书籍是西蒙.赫金的<自适应滤波器原理>第四版,记录的内容为自己的学习总结,本文主要分为以下四部分: 1)随机过程.确定过程 2)均值.方差.分布函数与概率密度 3)不相关与独立性 4)平稳性与遍历性 内容中不当的地方,

线性预测与Levinson-Durbin算法实现

在学习信号处理的时候,线性预测是一个比较难理解的知识点,为了加快很多朋友的理解,这里给出Levinson-Durbin算法的线性预测实现和一个测试Demo,Demo中很明确的把输入信号.预测信号.预测误差打印了出来,这样就能以最直观的方式,把线性预测的实现与作用展示出来.话不多说,直接上代码! 1 typedef float OsFlt32; 2 typedef int OsInt32; 3 4 OsFlt32 lpc(const OsFlt32 *r,OsInt32 p,OsFlt32 *a)

【随机过程】马尔可夫链(2)

[随机过程]马尔可夫链(2) 标签(空格分隔): [信号处理] 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ 说明:马尔科夫链是一个离散的马尔科夫过程,本文主要对马尔科夫链的几个比较绕的概念进行理解,然后对马尔科夫链的状态分类进行阐释. 几个概念 首先一个非常值得提醒的就是,我们在学习随机过程的基础理论的时候会经常讲,但是到了介绍某几个具体的随机过程的详细知识的时候总会忘记,那就是一个非常重要的前提:它是一个平稳随机过程.注意了,一定是平稳的,不平稳的

python-[panda]-[sklearn]-[matplotlib]-线性预测

文章: http://python.jobbole.com/81215/ python的函数库好强大!看完这篇博再也不会用matlab了~~ 这篇文章使用[panda]读取csv的数据,使用[sklearn]中的linear_model训练模型并进行线性预测,使用[matplotlib]将拟合的情况用图表示出来. 下面的表格是用于训练模型的表格: 代码如下: # -*- coding: utf-8 -*- ''' Created on 2016/11/26 @author: chensi '''

统计学习——随机过程

随机过程:我的理解是随机变量的集合.比如X(t)=Acos(wt+θ),t>=0,A,w为常数,θ为[0,2π]上均匀分布的随机变量.对于固定的t,X(t)是一个随机变量,它是θ的函数.由于θ是一个随机变量,那么它的函数也是随机变量.对于不同的t,如t1,t2.X(t1),X(t2)就是两个不同的随机变量.所以你只要搞清随机变量这个概念, 随机过程即在随机变量的基础上引入时间的概念,随机过程只是在时间上的一串随机变量罢了. 随机场包含两个要素:位置(site),相空间(phase space).

【随机过程】马氏链的理论与仿真

在2014年终总结中,我提到要对这学期学过的数学课中的部分算法进行仿真实现.<数值分析>和<工程优化>这两门数学课里面还有些专门讲算法的,可以用来仿真.在<随机过程>这门课中,几乎全都是公式推导,定理证明,实在难以仿真实现.最后发现,马尔科夫链这一章比较适合仿真,况且先前也写过类似的程序,更重要的是之前有人也问过关于马氏链的Matlab实现问题.关于马氏链的理论原理在这就不作描述,下面直接用程序来实现具体问题的求解. 假设有9个状态,其状态转移图如下所示: 根据状态转移

(一)概率论与随机过程

在一般大学数学系,重视分析与代数,轻视几何与概率等应用学科.这种现象在很多学校都存在,吾以为这不是个很好的现象.今天开始重新学习下概率论与随机过程.主要参看的教材是陈希孺<概率论与数理统计>.Sheldom M.Ross<应用随机过程导论>,因为是重新开始学习做一定量的习题是有必要的,由于不是专业人士,难免有所错误,希望大家多多批评指正. 大学的概率论与随机过程主要学习了哪些内容了呢? 在引入概率定义前,首先给出了样本空间和事件的定义.为什么要先给出样本空间和事件的定义呢?因为概率