【随机过程】马尔可夫链(2)

【随机过程】马尔可夫链(2)

标签(空格分隔): 【信号处理】



声明:引用请注明出处http://blog.csdn.net/lg1259156776/



说明:马尔科夫链是一个离散的马尔科夫过程,本文主要对马尔科夫链的几个比较绕的概念进行理解,然后对马尔科夫链的状态分类进行阐释。


几个概念

首先一个非常值得提醒的就是,我们在学习随机过程的基础理论的时候会经常讲,但是到了介绍某几个具体的随机过程的详细知识的时候总会忘记,那就是一个非常重要的前提:它是一个平稳随机过程。注意了,一定是平稳的,不平稳的基本上现在不涉及,不研究。

然后是提到了马尔科夫链的状态转移图和状态转移矩阵,这两者可以相互推出。这里要提的就是状态转移图是一个非常有用的分析方法,常常在数字电路设计中用到,虽然两者的表现形式可能不同,但是基本的思想还是一致的。有些问题就可以通过这种方法非常直观地展现出来,或者辅助思考。

可达,相通,不可约(处处相通)这三个概念,上一篇讲过;

首达时间和首达概率,这个概念还是有用的,下面会结合例子进行说明:

首达时间,马尔科夫链,从状态i开始,第一次到达状态j的步数或时间,而首达概率则是从状态i开始,经历n步,首次到达状态j的概率,记为fnij,那么这里对n进行积分,离散的当然是求和了,得到的概率被记作fij,指的是不管多少步,只要是从状态i出发,首次达到j的概率。

说到应用和意义,它可以对系统在一段时间内正常运转的可靠性进行概率建模,还是上一讲中的例子,不可约链,一个没有人维护的自然系统,总会经历3中状态,而最后一种吸收态,被称之为“黑洞”,进去了就出不来了,对应的就是报废状态。另外两种状态都是可以相互转化的,因此,可靠性的意思就是系统在该段时间内都是处在状态1,2中,而不是状态3,反过来思考就是,在[1,n]内状态可靠的概率就是1-不可靠的概率,而在[1,n]内不可靠的概率如何计算呢,试着想想首达时间,也就说首达时间落入了[1,n]内,这样可以计算首达时间是1到n的概率,在区间[1,n-1]内积分,求和,得到的概率就是不可靠的概率,1减去它就可以了。

状态分类

用fii进行说明定义,如果fii=1,说明从状态i开始,经历有限的若干步骤,总能返回到状态i,这样的状态i被称之为常返状态。如果fii<1则被称之为非常返/瞬时状态。那么{fnii,n=1,...}是一个概率分布喽,因为任何一个fnii=1都是互斥不相容事件。那么在fii=1的情况下,就可以计算期望的返回时间,μi=∑n=1nfnii。如果μi有限,则称之为正常返,否则称之为零常返。

还有一个周期的概念,周期指的是所有能够首次返回的步数的集合的最小公约数d(i)。{n:n≥1,pii>0},那么如果d(i)=1,不好意思,实际上就是该状态上有一个环儿,自己能一步到自己,被称为非周期的。如果d(i)>1,则称状态i为周期的。

而正常返非周期则被称之为遍历状态。

有没有搞糊涂,反正我学过两遍,还行。

用状态转移概率矩阵来判断状态分类

这一小段被我睡过去了,忘了,回头再补!


2015-11-09 蹭课笔记 张朋艺

版权声明:本文为博主原创文章,转载请注明出处http://blog.csdn.net/lg1259156776/。

时间: 2024-10-06 03:06:33

【随机过程】马尔可夫链(2)的相关文章

从随机过程的熵率和马尔科夫稳态过程引出的一些思考 - 人生逃不过一场马尔科夫稳态

1. 引言 0x1:人生就是一个马尔科夫稳态 每一秒我们都在做各种各样的选择,要吃青菜还是红烧肉.看电影还是看书.跑步还是睡觉,咋一看起来,每一个选择都是随机的,而人生又是由无数个这样的随机选择组成的结果.从这个前提往下推导,似乎可以得出一个结论,即人生是无常的,未来是不可预测的.但事实真的是如此吗? 以前的老人流行说一句话,三岁看小,七岁看老.这似乎是一句充满迷信主义色彩的俗语,但其实其中暗含了非常质朴而经典的理论依据,即随机过程不管其转移概率分布如何,随着时序的增大,最终会收敛在某个稳态上.

马尔可夫链

原文:http://blog.sina.com.cn/s/blog_5398194701011yv6.html 马尔柯夫预测法 马尔柯夫预测法:马尔柯夫预测以俄国数学家A.A.Markov名字命名,是利用状态之间转移概率矩阵预测事件发生的状态及其发展变化趋势,也是一种随时间序列分析法.它基于马尔柯夫链,根据事件的目前状况预测其将来各个时刻(或时期)的变动状况.  1. 马尔柯夫链.状态是指某一事件在某个时刻(或时期)出现的某种结果.事件的发展,从一种状态转变为另一种状态,称为状态转移.在事件的发

统计学习——随机过程

随机过程:我的理解是随机变量的集合.比如X(t)=Acos(wt+θ),t>=0,A,w为常数,θ为[0,2π]上均匀分布的随机变量.对于固定的t,X(t)是一个随机变量,它是θ的函数.由于θ是一个随机变量,那么它的函数也是随机变量.对于不同的t,如t1,t2.X(t1),X(t2)就是两个不同的随机变量.所以你只要搞清随机变量这个概念, 随机过程即在随机变量的基础上引入时间的概念,随机过程只是在时间上的一串随机变量罢了. 随机场包含两个要素:位置(site),相空间(phase space).

随机过程

原来一直不太清楚随机过程是怎么回事,它和随机信号和随机变量又有哪些关联?今天就来介绍一下, 随机过程的基本特征主要体下载以下两个方面: 1.它是一个时间的函数 2.在某一个固定的观察时刻,全部样本在t时刻的取值是一个不含时间t变化的随机变量. 用通俗的话来讲,随机过程是指整个过程在时间上是随机的,是一个高斯过程:但是固定在某一个时刻点,它也是随机的,也是一个高斯过程. 随机过程中的任一个实现都经历了随机过程的所有可能的的状态.

通信系统——随机过程

每个样本点是一个时间的函数(叫样本函数),整个样本空间叫随机过程. 有些随机现象不能用一个或几个随机变量来刻画,要用一族无穷多个随机变量来描述,这就是随机过程. 随机过程研究的对象是随时间演变的随机现象,对事物的全过程的观察得到一个时间t的函数.但对同一个事物独立地重复进行多次观察所得的结果是不同的. 随机变量每一次试验的结果是一个数,而随机过程每一次实验的结果是一个函数. 平稳过程是一类统计特性不随时间推移而变化的随机过程. 严平稳随机过程的有限维分布不随时间推移而发生改变. 用定义去证明随机

滤波器专题——随机过程基础

作者:桂. 时间:2017-03-09  21:15:34 链接:http://www.cnblogs.com/xingshansi/p/6527961.html 声明:欢迎转载,不过记得注明出处哦~ 未完待续... [读书笔记01] 前言 这几天打算学一学滤波器的相关原理,看的书籍是西蒙.赫金的<自适应滤波器原理>第四版,记录的内容为自己的学习总结,本文主要分为以下四部分: 1)随机过程.确定过程 2)均值.方差.分布函数与概率密度 3)不相关与独立性 4)平稳性与遍历性 内容中不当的地方,

拓展深度学习一种变相的马尔可夫链

你可以创建一个递归神经网络一个字符一个字符地学习语言特征.但是这个结果模型与为同样目的设计的马尔可夫链有什么不同呢?本文用R实现了一个字符-字符的马尔可夫链来一探究竟. Andrej Karpathy的文章<递归神经网络不可思议的有效性>(The Unreasonable Effectiveness of Recurrent Neural Networks)在去年名噪一时.其基本假设是你可以创建一个递归神经网络一个字符一个字符地学习语言特征.但是这个结果模型与为同样目的设计的马尔可夫链有什么不

马尔可夫过程(Markov Process)和马尔可夫链

对于一个随机过程,如果其未来所处的状态仅与其当前状态有关,而与过去的状态无关,则该随机过程被称为Markov过程,其具有马尔可夫性(亦"无后效性"). 对于一个有限状态自动机,其状态集为S={s1, s2, ..., sn}.用X = x1, x2, ..., xT表示该状态机在t = 1, 2, ..., T时刻所处的状态.那么,我们称满足以下条件的状态链X为Markov链: (式1) P (x1, x2, ..., xT) = P(x1) * ∏(t=2)(T) P (xt | x

【随机过程】马氏链的理论与仿真

在2014年终总结中,我提到要对这学期学过的数学课中的部分算法进行仿真实现.<数值分析>和<工程优化>这两门数学课里面还有些专门讲算法的,可以用来仿真.在<随机过程>这门课中,几乎全都是公式推导,定理证明,实在难以仿真实现.最后发现,马尔科夫链这一章比较适合仿真,况且先前也写过类似的程序,更重要的是之前有人也问过关于马氏链的Matlab实现问题.关于马氏链的理论原理在这就不作描述,下面直接用程序来实现具体问题的求解. 假设有9个状态,其状态转移图如下所示: 根据状态转移