概率图模型推断之Belief Propagation

初步打算把概率图模型中推断方法都介绍一下,包括Belief Propagation,变分方法,MCMC,以及像是Graph cut也做一些说明。

关于Belief Propagation是什么?

Belief Propagation是一种信息传递方法,一般用来解关于概率图模型中的推断问题,在这些问题中,单纯地通过公式推导或者MC模拟是很难得到准确答案的,这就需要BP,能够很有效地求解一些特定问题得边缘概率。

首先说明一下为什么边缘概率如此难求,wiki上的例子:

X={x i } 是一个离散的随机变量集合,并且其联合概率是p ,关于某个变量的边缘概率就是对于所有其他变量的一个求和

p X i  (x i )=∑ x ′ :x ′ i =x i  p(x ′ )

但是这个求和会随着变量的增多而变得呈指数增长,假设说有100个二元变量,每个可以取01,那样所需要的求和次数就是2 99 ~6.338×10 29  ,BP能够充分利用数据结构信息,让计算变得很简便。像是以前学得动态规划解决最短路径,以及维特比方法求HMM的Hidden state的概率,都是用了BP的思想。

说道动态规划(Dynamic programing),可能大家都很熟悉,DP的主要思想就是构造最有子空间,把求解一个大问题分解成求解一系列的小问题,BP也是这个思想,BP利用了局部分消息传递,把计算全局的求和或者积分,转换成了局部的消息传递,每个节点都能都过自身的状态以及邻近节点的状态做出评价,得到自身的下一状态,不断地更新最终使系统达到稳定。

参考:

【1】http://en.wikipedia.org/wiki/Belief_propagation

【2】http://blog.sina.com.cn/s/blog_4dfdfdc30100q2el.html

时间: 2024-08-23 00:01:52

概率图模型推断之Belief Propagation的相关文章

概率图模型(PGM)学习笔记(三)模式推断与概率图流

我们依然使用"学生网络"作为例子,如图1. 图1 首先给出因果推断(Causal Reasoning)的直觉解释. 可以算出来 即学生获得好的推荐信的概率大约是0.5. 但如果我们知道了学生的智商比较低,那么拿到好推荐信的概率就下降了: 进一步,如果又同时知道了考试的难度很低,那么他拿到好的推荐信得概率又上升了,甚至还能超过最初的概率: 上述这个过程就是因果推断,你看它是顺着箭头的方向进行推断. 其次给出信度推断(Evidential Reasoning)的直觉解释.如图2. 图2 本

概率图模型:贝叶斯网络与朴素贝叶斯网络

http://blog.csdn.net/pipisorry/article/details/51471222 贝叶斯与频率派思想 频率派思想 长久以来,人们对一件事情发生或不发生,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大.而且事情发生或不发生的概率虽然未知,但最起码是一个确定的值. 比如如果问那时的人们一个问题:"有一个袋子,里面装着若干个白球和黑球,请问从袋子中取得白球的概率是多少?"他们会立马告诉你,取出白球的概率就是

Belief Propagation 解决计算机视觉问题

Belief Propagtion在计算机视觉视觉中有相当广泛的应用,当然这一切离不开MRF.CRF等图模型的使用. 很多视觉问题可以表述成一个能量函数的形式,例如,图像的语义分割或者叫做image parsing问题可以表述成一个能量函数的形式: \begin{equation} E(f)=\sum_{p\in \mathcal{P}}D_p(f_p)+\sum_{(p,q)\in \mathcal{N}}W(f_p,f_q) \end{equation} 我们的目标是求这个函数的最小值,其中

机器学习 —— 概率图模型(Homework: Exact Inference)

在前三周的作业中,我构造了概率图模型并调用第三方的求解器对器进行了求解,最终获得了每个随机变量的分布(有向图),最大后验分布(双向图).本周作业的主要内容就是自行编写概率图模型的求解器.实际上,从根本上来说求解器并不是必要的.其作用只是求取边缘分布或者MAP,在得到联合CPD后,寻找联合CPD的最大值即可获得MAP,对每个变量进行边缘分布求取即可获得边缘分布.但是,这种简单粗暴的方法效率极其低下,对于MAP求取而言,每次得到新的evidance时都要重新搜索CPD,对于单个变量分布而言,更是对每

机器学习 —— 概率图模型(Homework: Week3)

前两周的作业主要是关于Factor以及有向图的构造,但是概率图模型中还有一种更强大的武器——双向图(无向图.Markov Network).与有向图不同,双向图可以描述两个var之间相互作用以及联系.描述的方式依旧是factor.本周的作业非常有实际意义——基于马尔科夫模型的图像文字识别系统(OCR) 图像文字识别系统(OCR)在人工智能中有着非常重要的应用.但是受到图像噪声,手写体变形,连笔等影响基于图像的文字识别系统比较复杂.PGM的重要作用就是解决那些测量过程复杂,测量结果不一定对,连续测

概率图模型(PGM)学习笔记(一)动机与概述

本文根据Daphne Koller的课程整理. PDM(ProbabilisticGraphiccal Models) 称为概率图模型.下面分别说明3个词对应的意义. 概率 -给出了不确定性的明确量度. -给出了根据不确定性进行推断的有力工具. -利用数据结构,建立了进行学习的方法,解决十分大规模的问题. 图 这里主要用到2种概率图,用于表示依赖关系.如图1所示. 图1 1.Bayesiannetworks 贝叶斯网络是一个有向无环图(Directed Acyclic Graph,DAG). 由

想了解概率图模型?你要先理解图论的基本定义与形式

图论一直是数学里十分重要的学科,其以图为研究对象,通常用来描述某些事物之间的某种特定关系.而在机器学习的世界里,我们希望从数据中挖掘出隐含信息或模型.因此,如果我们将图中的结点作为随机变量,连接作为相关性关系,那么我们就能构造出图模型,并期望解决这一问题.本文将为构造该模型提供最基础的概念. 我们都知道机器学习里的决策树,其可以表示为给定特征条件下类的条件概率分布.并且我们知道决策树由结点和有向边组成,结点又由表示特征的内部结点和表示类的叶结点构成.而通常决策树的学习又包括了特征的选择.决策树的

第六章 概率图模型

概率图模型构建了这样一幅图,用观测节点表示观测到的数据,用隐含节点表示潜在的知识,用边来描述知识与数据的相互关系,最后基于这样的关系图获得一个概率分布,非常“优雅”地解决的问题. 概率图模型包括了朴素贝叶斯模型.最大熵模型.隐马尔可夫模型.条件随机场.主题模型等.主要在NLP领域用的较为广泛 1 概率图模型额联合概率分布 团:如果在X={x1,x2,...,xn}所构成的子集中,任意两点之间都存在边相连,则这个子集中的所有节点构成了一个团 本模块涉及到的两道题属于概率论题,详见P118-119

5、概率图模型 Inference-Variable_Elimination

对于概率图模型,整个过程分为三个步骤: Reprentation:如何建模以表示现实世界中的不确定性和各个量之间的关系. Inference:如何从我们建立的模型中去推知我们要求的问题(概率).        Learnig:对于我的数据来说,什么模型是相对正确的? 之前都是对Repretation的学习,从本篇开始进行Inference的学习和总结.