<知识库的构建> 5-3 马尔科夫逻辑 Markov logic

引自Fabian Suchanek的讲义。

总结:马尔科夫你需要知道这么几个点:

第一个是要知道如何形成马尔科夫随机场的条件,就是当有多个随机变量满足:Xi只由他的邻居决定,至于邻居是可以形成无向图,邻居是点,邻居和邻居的连线是边。

第二个要清楚的是Hammersley-Clifford-Theorem形成的条件,很容易,是说马尔科夫随机场里面的P都大于0的时候,这个也叫作矢量化,在CRF里面有提到,也就是当P大于0的时候,x也就是一条一条的rules,当他们成立的时候的概率等于势函数的乘积。

第三个要知道MRF和rules有什么关系,为什么要在这里运用MRF,MRF是可以计算所有KB的权重不同的时候的概率,概率是怎么算的呢,在第二条我讲过了,就是当rules成立的时候势函数的乘积,但是在计算KB的总权重时,并不是每个rules都会成立,我们根据式子,可以知道P是是函数的乘积,势函数是e的权重次方,e是单调递增函数,所以权重越大,那么势函数越大,那么P就越大,当权重最大的时候,也就是rules都成立的时候,就是KB权重最大的时候。

下图是一个表格,w代表possible world,X代表rules,例如hasSpouse之类的,F/T是随机身体成的答案,F代表对应的X不成立反之为T,P代表着出现该possible world的概率。

马尔科夫随机场MRF:由一系列随机变量组成,且它们满足:

N(Xi) 表示Xi的邻居,也就是能决定Xi的东西

整个式子表示Xi只被它的邻居决定

下图为一个马尔科夫随机场

从图中我们可以看出X123是互相依赖的

X45是互相依赖的,因为4出现5也出现,4不出现5也不出现,这个道理对5也成立。

邻居Neighbors:互相依赖的就可以成为邻居,邻居之间可以形成无向图,也就是整个表格的cliques

表示邻居:N(X1) = {X2,X3} etc…

表示cliques:C1 = {X1,X2,X3}, C2 = {X1,X2,X3}

最大的clique:cliques中边最多的,此处是C1

Hammersley-Clifford-Theorem:若MRF中每个P都大于0,那么

势函数:根据表格中的rules是否成立来计算

例如:

若条件成立得到的的是权重,那么势函数的结果是e的权重次方

我们有这些带权重的rules,我们想计算KB的各种possibleword出现的概率分布:可以使用MRF

我们设is(Ron, Immature)为X1,likes(H,Ron)为X2, type(H,sor)为X3,我们可得:

第一个式子是指若x1成立,那么得到权重10,若不成立则得到权重0,所以对应的势函数结果就是e的10次方或者是e的0次方。

最终P就是这三种情况的乘积。

MRF与MAXSAT:当W最大时得到的P就是KB权重最大的概率

P是势函数的成绩,势函数是e的权重次方,e是单调递增函数,所以权重越大那么势函数越大,那么P越大,所以要使P变大,最根本上是要让w变大,即使用梯度上升的方法使W变大。

公式推理:

使下面的式子最大:

即:找到使此式子值最大的x

所以得到P至于W有关,所以尽量让w大一些。

正则化Normalization:因为要让P在0和1之间,所以把势函数的乘积除以了Z

马尔科夫逻辑网Markov Logic Network:一些带权重的rules形成马尔科夫逻辑网,factor是势函数,当rules为positive时即成立时,则能得到势函数的值是e的权重次方,否则是e的0次方。

原文地址:https://www.cnblogs.com/mengzizhao/p/8381982.html

时间: 2024-10-09 22:50:32

<知识库的构建> 5-3 马尔科夫逻辑 Markov logic的相关文章

马尔科夫链 Markov Chains

Good resource, Markov Chains Explained Visually,  http://setosa.io/ev/markov-chains/ ============================ 马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名,为状态空间中经过从一个状态到另一个状态的转换的随机过程.该过程

隐马尔科夫过程

在马尔科夫模型中,每个状态代表了一个可观察事件,所以,马尔科夫模型有时又称作可是马尔科夫(visible markov model, VMM),这在某种成都航限制了适应性.在隐马尔科夫模型(VMM)中,我们不知道模型所经过的状态序列,只知道状态的概率函数,也就是说,观察到的时间是状态的随机函数,因此,改模型是一个双重的随机过程.(统计自然语言处理(第二版)) (不懂马尔科夫过程的朋友请先了解一下马尔科夫过程) 书中用暗室里的袋子举例,我这里就简短说明一下,有一个暗室,暗室里有比方说10个袋子,每

机器学习---算法---马尔科夫

转自:https://blog.csdn.net/pipisorry/article/details/46618991 1.确定性模式(Deterministic Patterns):确定性系统 考虑一套交通信号灯,灯的颜色变化序列依次是红色-红色/黄色-绿色-黄色-红色.这个序列可以作为一个状态机器,交通信号灯的不同状态都紧跟着上一个状态. 注意每一个状态都是唯一的依赖于前一个状态,所以,如果交通灯为绿色,那么下一个颜色状态将始终是黄色--也就是说,该系统是确定性的.确定性系统相对比较容易理解

隐马尔科夫模型 HMM(Hidden Markov Model)

本科阶段学了三四遍的HMM,机器学习课,自然语言处理课,中文信息处理课:如今学研究生的自然语言处理,又碰见了这个老熟人: 虽多次碰到,但总觉得一知半解,对其了解不够全面,借着这次的机会,我想要直接搞定这个大名鼎鼎的模型,也省着之后遇到再费心. Outline 模型引入与背景介绍 从概率图讲起 贝叶斯网络.马尔科夫模型.马尔科夫过程.马尔科夫网络.条件随机场 HMM的形式化表示 Markov Model的形式化表示 HMM的形式化表示 HMM的两个基本假设 HMM的三个基本问题 Evalution

马尔科夫链和隐马尔可夫模型(转载)

马尔可夫模型是由Andrei A. Markov于1913年提出的 ?? 设 SS是一个由有限个状态组成的集合 S={1,2,3,-,n?1,n}S={1,2,3,-,n?1,n} 随机序列 XX 在 tt时刻所处的状态为 qtqt,其中 qt∈Sqt∈S,若有: P(qt=j|qt?1=i,qt?2=k,?)=P(qt=j|qt?1=i)P(qt=j|qt?1=i,qt?2=k,?)=P(qt=j|qt?1=i) aij≥0∑jnaij=1aij≥0∑jnaij=1 则随机序列 XX构成一个一

隐马尔科夫模型—2

二 定义 (1) 基本定义 在上一篇中,我们通过一个给母亲打电话预测天气的例子,来引入隐马尔科夫模型.下面我们将结合一中的例子来形式化的定义隐马尔可夫模型.隐马尔科夫模型是关于时序的概率模型,描述的由一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程.在我们这个例子中,就是由一个隐藏的马尔科夫链生成每天的天气(状态),再由每天的天气决定每天母亲下班以后做什么(观测)的随机过程.隐藏的马尔科夫链随机生成的状态的序列,称为状态序列,也就是最近一段时间

增强学习与马尔科夫决策过程

现有的机器学习算法根据模型的学习过程大致可以分为四类:监督式学习,无监督式学习,半监督式学习和增强学习. ① 监督式学习:从标记好的训练数据中进行模型的训练,常用来做分类和回归,例如逻辑回归.反向神经网络: ② 无监督式学习:根据数据的特征直接对数据的结构和数值进行归纳,常用来做聚类,例如周知的K-均值,谱聚类: ③ 半监督式学习:根据部分标记的和部分没有标记的训练数据进行模型的学习,常用来做回归和分类: ④ 增强式学习:作为今天要讨论的主角,是机器学习中最酷的分支之一,其通过不断的试错.反馈进

隐马尔科夫模型

特征向量:跟踪框位置相对轨迹中心的比值,角度,速度. 马尔科夫模型: State Sequence, q1 q2 ...... qT t个状态之间的转移可见,则这个时间序列的概率是πq1 × aq1q2 × ...... × aqT-1qT 隐马尔科夫模型: 状态不可见(隐藏),只能从观察值推测出,所以由观察值推测该时刻的状态有个观察值概率b. πq1 × bq1( o1 ) × aq1q2 × bq2( o2 ) × ...... × aqT-1qT × bqT( oT ), 三个问题: 1.

HMM基本原理及其实现(隐马尔科夫模型)

HMM(隐马尔科夫模型)基本原理及其实现 HMM基本原理 Markov链:如果一个过程的“将来”仅依赖“现在”而不依赖“过去”,则此过程具有马尔可夫性,或称此过程为马尔可夫过程.马尔可夫链是时间和状态参数都离散的马尔可夫过程.HMM是在Markov链的基础上发展起来的,由于实际问题比Markov链模型所描述的更为复杂,观察到的时间并不是与状态一一对应的,而是通过一组概率分布相联系,这样的模型称为HMM.HMM是双重随机过程:其中之一是Markov链,这是基本随机过程,它描述状态的转移,是隐含的.