判别模型(Discriminative model)和生成模型(Generative model)

在前面的章节中,我们介绍过SVM、逻辑回归,这两者都属于监督学习中的一种,即训练数据的标签是给定的,我们希望通过对训练数据进行学习,这样对于给定的新样本数据,我们可以对它的类别标签进行预测。实际上,监督学习又可以分为两类,判别模型(Discriminative model)和生成模型(generative model),前面提到的SVM和逻辑回归都属于判别模型的一种。那么判别模型和生成模型有何区别?

1.1 判别模型和生成模型的区别

我们先来看以前讲过的SVM和逻辑回归(LR)有什么特点。这两者都是对分布概率p(y|x;θ)进行进行学习的,这个概率表示给定一个新样本数据特征x,模型参数θ可以通过训练数据学习而来,我们期望对数据x的类别标签的概率分布p(y|x;θ)进行预测。比如,在逻辑回归中,我们对数据类别的概率分布的预测是通过模型p(y|x;θ)=g(θTx)进行判定的,其中g表示sigmod函数。这种类型的预测模型称为判别模型,它是在有限训练样本已知的条件下学习判别函数,并不会考虑样本数据产生的模型是什么样,而直接预测模型的输出。典型的判别模型包括k近邻,感知机,决策树,SVM,逻辑回归等。

考虑这样一个例子,假设给定动物的若干个特征属性,我们希望通过这些特征学习给定的一个“个体”到底是属于“大象”(y=1)还是“狗”(y=0)。如果采用判别模型的思路,如逻辑回归,我们会根据训练样本数据学习类别分界面,然后对于给定的新样本数据,我们会判断数据落在分界面的哪一侧从而来判断数据究竟是属于“大象”还是属于“狗”。在这个过程中,我们并不会关心,究竟“大象”这个群体有什么特征,“狗”这个群体究竟有什么特征。

现在我们来换一种思路,我们首先观察“大象”群体,我们可以根据“大象”群体特征建立模型,然后再观察“狗”群体特征,然后再建立“狗”的模型。当给定新的未知个体时,我们将该个体分别于“大象”群体和“狗”群体模型进行比较,看这个个体更符合哪个群体模型的特征。

所以分析上面可知,判别模型是直接学习p(y|x),或者直接从特征空间学习类别标签;生成模型是对类别模型进行学习,即学习p(x|y)(每一类别数据的特征模型)和p(y)(别类概率)。如在上面的例子中,对于“大象”群体,特征分布可以表示为p(x|y=1),对“狗”群体建立特征模型p(x|y=0)。假设类别概率分布p(y)是已知的,那么我们可以通过贝叶斯公式,对给定数据特征x的类别后验概率推导为,

p(y|x)=p(x|y)p(y)p(x)

其中,p(x)=p(x|y=1)p(y=1)+p(x|y=0)p(y=0)(每一类的类别概率乘以该类别内的特征分布概率就是总的特征分布概率),所以p(x)也可以表达为模型p(x|y)和类别概率p(y)了。在进行类别判定时,我们会分别计算数据x属于各个别类的概率大小,并将x的标签赋予为概率更大的类别,也就是,

argmaxyp(y|x)=argmaxyp(x|y)p(y)p(x)=argmaxyp(x|y)p(y)

最后一个式子是因为对于所有类别的特征概率分布都是一样的,所以可以不考虑p(x)。所以,实际上,生成模型是对联合概率分布p(x,y)=p(x|y)p(y)进行学习的。常用的生成模型有朴素贝叶斯,隐马尔可夫等,HMM等。

1.2 高斯生成模型

1.2.1高斯生成模型概念

这里首先列举一个简单的例子,高斯生成模型,也就是说每个类别的数据分布可以由高斯模型进行建模,也就是说有,

y~Bernoulli(?)

x|y=0~N(μ0,Σ)

x|y=1~N(μ1,Σ)

类别概率为伯努利分布。在这个问题中,所涉及到的未知参数包括:?,Σ,μ0,μ1,参数的求解可以通过最大化联合概率分布求得,即,

最终求得的各个参数计算公式为,

我们以图示来说明,其中,圆圈和叉号分别表示两类数据,分别使用高斯模型对数据分布进行建模,由于两个高斯模型的协方差参数是一致的,所以这两个高斯分布的形状是一样的,只是中心位置不一致而已。图示中的直线表示的是决策面,表示p(y=1|x)=p(y=0|x)=0.5,表示属于两个类别的概率大小时一样的,否则的话,根据数据属于两个类别的概率大小决定数据所属于的类别。

1.2.2高斯生成模型与逻辑回归的关系

有趣的是,高斯生成模型中,p(y=1|x;?,μ0,μ1,Σ)是可以表示为x的函数的(这里大家可以自行推导一下),θ是参数?,Σ,μ0,μ1的函数,

p(y=1|x;?,μ0,μ1,Σ)=11+exp(?θTx)

而这个形式恰好是逻辑回归的基本模型!这说明,我们在使用高斯模型对每一类别的特征数据进行建模时,p(y|x)是符合逻辑回归模型的,但是如果满足有p(y|x)符合逻辑回归模型,并不能一定得到数据特征分布是高斯分布这个结论,所以反向推导是不成立的!实际上,当类别数据特征分布满足如泊松分布(Poisson Distribution)时,也可以得到p(y|x)是满足逻辑回归模型的。

总的说来,GDA(高斯生成算法)对数据分布进行了一定的假设(假设数据分布是高斯分布的),当数据确实符合或近似符合高斯分布时,这种计算方法是比较高效准确的;但是当数据并不符合高斯分布时,这种计算方法的效果并不是很好,而逻辑回归并不存在这样的假设,所以当数据不满足高斯分布时,逻辑回归分类的效果要更好一些。

1.3朴素贝叶斯

1.3.1 朴素贝叶斯基本概念

这里介绍另外一种更为常用的模型-朴素贝叶斯(Naive Bayes)。在GDA中,特征x是连续值,而在朴素贝叶斯中,特征x是离散的。

考虑这样一个应用场景,我们需要根据邮件内容来判断该邮件是否有垃圾邮件(垃圾邮件类别标签为1,非垃圾邮件类别标签为0)。那么,首先,我们需要设计特征表示。假设我们的词库中共有500000个单词,分别是”a, aardvark, aardwolf,…,buy,…,zygmurgy”,那么我们可以建立一个长度为500000的特征向量x,

其中,x的每一维度表示相应位置的单词是否出现,如果出现,则用1表示,如果未出现,则用0表示。根据生成模型的定义,对于给定的一封待检测邮件,我们需要比较p(y=0|x)和p(y=1|x)的概率大小,如果p(y=1|x)概率大,则说明该邮件属于“垃圾邮件”,否则属于“非垃圾邮件”。

接下来,我们需要分别分析训练数据中已有的“垃圾邮件”和“非垃圾邮件”,即p(x|y=1)和p(x|y=0)。如果考虑使用多项式对每一类中的500000维度的特征进行建模,涉及的参数太多,不合理!所以在朴素贝叶斯(NB)中,引入一个假设:在特定类别数据中,xi之间是条件独立的,比如说在词汇表中“buy”这个单词位置是2087,“price”这个单词的位置是39831,那么我们假设如果有y=1,即该邮件是“垃圾邮件”,那么“buy这个单词是否出现”这个事实,并不会影响“price”这个单词出现的概率,即有p(x2087)=p(x2087|y,x39831)

所以概率p(x|y)表示为,

p(x|y)=p(x1,...,x500000|y)=p(x1|y)p(x2|y,x1)p(x3|y,x1,x2)...p(x500000|y,x1,...,x499999)=p(x1|y)p(x2|y)p(x3|y)...p(x500000|y)=∏i=1np(xi|y)

虽然NB问题具有较强假设条件,在事实上,在很多问题上,NB算法能够取得较好的效果。

在这个问题中,参数可以表示为,?i|y=1=p(xi=1|y=1),?i|y=0=p(xi=1|y=0),?y=p(y=1)。那么对于给定的训练集{(x(i),y(i))},i=1,...,m,那么参数的求取可以通过最大化联合概率分布获得,联合概率分布可以表示为,

L(?i|y=1,?i|y=0,?y)=∏i=1mp(x(i),y(i))

联合概率分布函数分别对各个参数求导,既可以获得参数表示为,

其中,?j|y=1表示解释为在所有垃圾邮件中第j个单词出现的邮件所占的比例。

在计算好这些参数之后,那么对于新的邮件,特征表示为x,预测该数据所属于的类别可以通过贝叶斯公式获得,即,

判定该邮件是否是垃圾邮件,则分别计算其属于垃圾邮件和非垃圾邮件的概率,哪个对应的概率大,则说明应该将该邮件分类为对应的那一类别。

所以,综合分析朴素贝叶斯的工作过程应如下,

1.设特征x={x1,x2,...,xm},每一个分量表示特征的一个属性维度

2.设有类别集合C=y1,y2,...,yn

3.分别计算特征x属于每一个类别的概率大小,p(y1|x),p(y2|x),...,p(yn|x)

概率大小通过贝叶斯公式计算而来,p(yi|x)=p(x|yi)p(yi)p(x)=(∏mj=1p(xj|yi)p(yi))p(x)

4.特征x类别为最大概率所对应的类别,argmaxyip(yi|x)

1.3.2 朴素贝叶斯例子

转自:http://www.cnblogs.com/leoo2sk/archive/2010/09/17/1829190.html

这里再列举一个例子来说明朴素贝叶斯的工作原理。使用贝叶斯分类解决实际问题的例子,问题描述为:对于SNS社区来说,不真实账号是一个普遍存在的问题,作为SNS社区的运营商,希望可以检测出这些不真实账号,从而在一些运营分析报告中避免这些账号的干扰,亦可以加强对SNS社区的了解和监管。如果通过纯人工检测,需要耗费大量的人力,效率也比较地下,如能引入自动检测机制,将大大提高工作效率。所以这个问题是来对社区中的所有账号分类为真实账号和不真实账号两个类别。

1.选取特征。

设不真实账号标签y=1,真实账号标签y=0。

我们选择三个特征属性:x={x1,x2,x3},x1:日志数量/注册天数;x2:好友数量/注册天数;x3:是否使用真实头像。

各个属性划分范围为,

x1:x1≤0.05,0.05<x1<0.2,x1≥0.2,x2:x2≤0.1,0.1<x2<0.8,x2≥0.8,x3:x3=0(不是),x3=1(是)

2.选取训练样本

这里使用运维人员曾经人工检测过的一万个账号作为训练样本。

3.计算类别概率p(y)

p(y=0)=8900/10000=0.89,p(y=1)=1100/10000=0.11

4.计算每个类别的各个特征属性划分的概率

p(x1≤0.05|y=0)=0.3,p(0.05<x1<0.2|y=0)=0.5,p(x1≥0.2|y=0)=0.2

p(x1≤0.05|y=1)=0.8,p(0.05<x1<0.2|y=1)=0.1,p(x1≥0.2|y=1)=0.1

p(x2≤0.1|y=0)=0.1,p(0.1<x2<0.8|y=0)=0.7,p(x2≥0.8|y=0)=0.2

p(x2≤0.1|y=1)=0.7,p(0.1<x2<0.8|y=1)=0.2,p(x2≥0.8|y=1)=0.1

p(a3=0|y=0)=0.2,p(a3=1|y=0)=0.8

p(a3=0|y=1)=0.9,p(a3=1|y=1)=0.1

5.新样本判别

现在有一个账号:使用非真实头像(x3=0),日志数量与注册天数比率为0.1,好友数量与注册天数比率为0.2。那么该账号分别属于真实账号和非真实账号的概率大小可以通过联合概率大小来判定,

p(x,y=0)=p(x|y=0)p(y=0)=0.5?0.7?0.2?0.89=0.0623

p(x,y=1)=p(x|y=1)p(y=1)=0.1?0.2?0.9?0.11=0.00198

该账号属于类别y=0的概率要大一些,所以通过朴素贝叶斯方法判定该账号应属于真实账号。

如有问题,欢迎指正~

时间: 2024-10-24 12:46:11

判别模型(Discriminative model)和生成模型(Generative model)的相关文章

生成模型(Generative)和判别模型(Discriminative)

https://www.cnblogs.com/realkate1/p/5683939.html 生成模型(Generative)和判别模型(Discriminative) 引言 最近看文章<A survey of appearance models in visual object tracking>(XiLi,ACMTIST,2013),在文章的第4节第1段有这样的描述,“Recently,visualobject tracking has been posed as a tracking

生成模型和判别模型(转)

引入 监督学习的任务就是学习一个模型(或者得到一个目标函数),应用这一模型,对给定的输入预测相应的输出.这一模型的一般形式为一个决策函数Y=f(X),或者条件概率分布P(Y|X).监督学习方法又可以分为生成方法(generative approach)和判别方法(discriminative approach).所学到的模型分别为生成模型(generative model)和判别模型(discriminative model). 决策函数和条件概率分布 决策函数Y=f(X) 决策函数Y=f(X)

生成模型与判别模型(转)

生成模型与判别模型 [email protected] http://blog.csdn.net/zouxy09 一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否.若有错误,还望各位前辈不吝指正,以免小弟一错再错.在此谢过. 一.决策函数Y=f(X)或者条件概率分布P(Y|X) 监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y.这个模型的一般形式为决策函数Y=f(X)或者条件概率分布P(Y|X).      

【转载】先验概率与后验概率,生成模型与判别模型

[注]事情还没有发生,要求这件事情发生的可能性的大小,是先验概率.事情已经发生,要求这件事情发生的原因是由某个因素引起的可能性的大小,是后验概率 Generative Model 与 Discriminative Model [摘要]    - 生成模型(Generative Model) :无穷样本==>概率密度模型 = 产生模型==>预测- 判别模型(Discriminative Model):有限样本==>判别函数 = 预测模型==>预测 [简介] 简单的说,假设o是观察值,

【机器学习基础】生成模型和判别模型

引入 监督学习的任务就是学习一个模型(或者得到一个目标函数),应用这一模型,对给定的输入预测相应的输出.这一模型的一般形式为一个决策函数Y=f(X),或者条件概率分布P(Y|X). 监督学习方法又可以分为生成方法(generative approach)和判别方法(discriminative approach).所学到的模型分别为生成模型(generative model)和判别模型(discriminative model). 决策函数和条件概率分布 决策函数Y=f(X) 决策函数Y=f(X

生成模型和判别模型

对于输入x,类别标签Y: 判别模型:由数据直接学习决策面Y=f(x)或条件概率P(Y|x)作为预测模型 生成模型:由数据学习联合概率分布P(x,Y),然后求出条件概率P(Y|x)作为预测模型 模型区别: 判别模型寻找不同类别之间的分离面,反映不同类别之间的差异. 生成模型通过统计反映同类数据的相似度. 模型的优点和缺点: 判别模型主要缺点: 1,不能反映数据本身的特征 判别模型主要优点: 1,模型简单,容易学习. 2,分类性能好,分类边界灵活. 生成模型的主要缺点: 1,模型复杂 生成模型主要优

概念辨析-生成模型/产生模型

机器学习的任务是从属性X预测标记Y,即求概率P(Y|X): 有监督学习 training data给了正确的答案即label,任务就是建立相应的模型,训练样本集外的数据进行分类预测. 生成式模型 生成模型学习一个联合概率分布P(x,y) 常见的判别方法有 k近邻法.感知机.决策树.逻辑回归.线性回归.最大熵模型.支持向量机(SVM).提升方法.条件随机场(CRF) 判别式模型 判别模型学习一个条件概率分布P(y|x) 常见的生成方法有混合高斯模型.朴素贝叶斯法和隐形马尔科夫模型 判别式模型举例:

深度学习(八):生成模型

一.引入 最开始知道生成模型和判别模型,是在李航的统计学习方法里,当时的理解是:生成模型,就是同时考虑了X和Y的随机性,也就是说二者都是随机变量:判别模型,就是只考虑了Y的随机性,而X并不是个随机变量,即使X存在于条件中,但是并没有p(x)这种说法.当时同时也知道了,朴素贝叶斯和隐马尔可夫都是生成模型,最主要的原因就是在这两个模型中涉及到的变量都是随机变量.生成模型可以转变成判别模型,也就是生成模型由于考虑的都是随机变量,可以通过条件概率公式计算出条件概率:反之不行,因为判别模型无法描述联合概率

判别式模型和产生式模型 (discriminative model and generative m

最经典的莫过于 Andrew Ng在NIPS2001年有一篇专门比较判别模型和产生式模型的文章: On Discrimitive vs. Generative classifiers: A comparision of logistic regression and naive Bayes (http://robotics.stanford.edu/~ang/papers/nips01-discriminativegenerative.pdf) 转: 判别式模型和产生式模型 (discrimin