PLSA的EM推导

本文作为em算法在图模型中的一个应用,推导plsa的em算法。

1 em算法

em算法是解决一类带有隐变量模型的参数估计问题。

1.1 模型的定义

输入样本为,对应的隐变量为。待估计的模型参数为,目标为极大化似然函数

对于上式的优化,不能通过直接对进行求导,因为一旦求导,就有如下的形式:

显然是不好求的。?

1.2 em算法的迭代过程

a. 初始化:随机初始参数的?

b. E step:

? ? ? ? ? ? 计算隐变量的后验分布

?c. M step:

? ? ? ? ? 迭代参数

? ? ? ? 其中,Q函数为X,Z的对数联合分布在Z的后验分布下的期望?

上面的式子,将样本和隐变量都表示成矩阵的形式,让人有些不太好套公式。

2 高斯混合模型

2.1 基本模型

?混合高斯模型认为,变量服从一个多峰的高斯分布,由数个高斯分布组合而成。所以我们首先引入隐变量

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

PLSA的EM推导

时间: 2024-12-28 08:25:49

PLSA的EM推导的相关文章

TopicModel - PLSA模型及PLSA的EM推导

http://blog.csdn.net/pipisorry/article/details/42560877 基于概率统计的PLSA模型,用EM算法学习模型参数. PLSA的概率图模型如下 其中D代表文档,Z代表隐含类别或者主题,W为观察到的单词,表示单词出现在文档的概率,表示文档中出现主题下的单词的概率,给定主题出现单词的概率.并且每个主题在所有词项上服从Multinomial 分布,每个文档在所有主题上服从Multinomial 分布. 整个文档的生成过程: (1) 以的概率选中文档: (

梯度下降和EM算法,kmeans的em推导

I. 牛顿迭代法给定一个复杂的非线性函数f(x),希望求它的最小值,我们一般可以这样做,假定它足够光滑,那么它的最小值也就是它的极小值点,满足f′(x0)=0,然后可以转化为求方程f′(x)=0的根了.非线性方程的根我们有个牛顿法,所以 然而,这种做法脱离了几何意义,不能让我们窥探到更多的秘密.我们宁可使用如下的思路:在y=f(x)的x=xn这一点处,我们可以用一条近似的曲线来逼近原函数,如果近似的曲线容易求最小值,那么我们就可以用这个近似的曲线求得的最小值,来近似代替原来曲线的最小值了: 显然

TopicModel - LSA、PLSA、LDA算法

http://blog.csdn.net/pipisorry/article/details/42560693 1.TopicModel - LSA(隐性语义分析)的早期方法SVD 2.TopicModel - EM算法及PLSA的EM推导 from:http://blog.csdn.net/pipisorry/article/details/42560693 ref:

PLSA详解

pLSA的原理理解 首先,我们直接来看一下pLSA是一个什么东西,从简单入手.不去管参数计算的问题,先弄明白pLSA的目的再说. pLSA其实不过是提出了一种关于人在写文章时的假设,一篇文章是由单词组成的,那么这些单词的产生过程是什么样的呢?pLSA认为就是人在写文章的时候会首先想到几个主题,那么这篇文章就是由这几种主题组成的. 比如:家,买东西,回忆,人生等等.当然,这几种主题在这篇文章中不可能是平均分配的,互相所占的比例不一样. 人在想到了这些主题以后就开始写出具体的单词,而在每种主题的影响

PLSA(Probabilistic Latent Semantic Analysis)模型

对于上次说的LSA模型,它能解决多个单词一个意义,但是不能解决多个意义一个单词,就是多义词的问题,而PLSA模型能较好的解决这个问题,首先说下,这个模型的假设: 1 假设生成一个单词的过程是这样的:首先选择一篇文章di,然后再次基础上选择一个潜变量zk(可以理解为主题),最后在此基础上再在生成一个单词.如果p(di,wj)表示第i个文本中有第j个单词的概率,根据假设有: 2 另外一个非常重要的假设是,单词wj和文本di是基于潜变量条件独立的,即: 与LSA模型相似,我们首先得到了一个加权词频矩阵

混合高斯模型的EM求解(Mixtures of Gaussians)及Python实现源码

今天为大家带来混合高斯模型的EM推导求解过程. 全部代码如下! def NDimensionGaussian(X_vector,U_Mean,CovarianceMatrix): #X=numpy.mat(X_vector) X=X_vector D=numpy.shape(X)[0] #U=numpy.mat(U_Mean) U=U_Mean #CM=numpy.mat(CovarianceMatrix) CM=CovarianceMatrix Y=X-U temp=Y.transpose()

python基础之推导式及匿名函数和高阶函数

推导式 推导式:做一些有规律的数据结构 列表推导式: 1.普通循环 print([i for i in range(1,51)]) [加工后的变量 for 循环] print([f "学习python{i}天" for i in range(1,51)) 2.筛选模式 print([i for i in range(1,51) if i > 25]) print([i+j for i in range(2) for j in range(2)]) 字典推导式 1.普通循环 {键:

七月算法-12月机器学习在线班--第十五次课笔记—主题模型

七月算法-12月机器学习--第十五次课笔记—主题模型 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com 复习的知识: 1.,Γ函数 是阶乘在实数上的推广,即实数的阶乘 2,Beta分布 Beta分布的概率密度: 其中系数B为: 两者的关系 1,朴素贝叶斯分析 朴素贝叶斯没有分析语意,无法解决语料中一词多义和多词一义的问题,更像是词法的分析,可以 一, 1个词可能被映射到多个主题中——一词多义 二,多个词可能被映射到某个主题的概率很高——多

主题模型之概率潜在语义分析(Probabilistic Latent Semantic Analysis)

上一篇总结了潜在语义分析(Latent Semantic Analysis, LSA),LSA主要使用了线性代数中奇异值分解的方法,但是并没有严格的概率推导,由于文本文档的维度往往很高,如果在主题聚类中单纯的使用奇异值分解计算复杂度会很高,使用概率推导可以使用一些优化迭代算法来求解. Thomas Hofmann 于1998年根据似然原理定义了生成模型并由此提出了概率潜在语义分析模型(Probabilistic Latent Semantic Analysis),简称PLSA. PLSA属于概率