贝叶斯分裂方法总结

1.综述:

  贝叶斯分类方法是统计学分类方法。它们可以预测类隶属关系的概率,如一个给定的元组属于一个特定类的概率。

贝叶斯分类基于贝叶斯定理。分类算法的比较研究发现,一种称为朴素贝叶斯分类法的简单贝叶斯分类法可以与决策树和经过挑选的神经网络分类器相媲美。用于大型数据库,贝叶斯分类法也已表现出高准确率和高速度。

朴素贝叶斯分类法假定一个属性值在给定类上的影响独立于其他属性的值,这一假定称为类条件独立性。做此假定是为了简化计算,并在此意义下称为“朴素的”。

PS:如果各个属性值不是条件独立的,则计算概率时是要计算条件概率、联合概率什么的,如果元组属性值很多的话就非常麻烦;如果是假设各属性具有很好的独立性的话,计算概率时只需要单独计算,不需要考虑其他属性对其出现的概率的影响,这样就简单多了。

2.贝叶斯定理

  贝叶斯分类法的核心即为贝叶斯定理。设X是数据元组。通常,X用n个属性集的测量值描述。令H为某种假设,如数据元组X属于某个特定类C,对于分类问题,希望确定给定“证据”或观测数据元组X,假设H成立的概率P(H|X)。换言之,给定X的属性描述,找出元组X属于类C的概率。

  P(H|X)是后验概率(posterior probability),或在条件X下,H的后验概率。相反,P(H)是先验概率(prior probability),或H的先验概率。后验概率P(H|X)比先验概率P(H)基于更多的信息。P(H)独立于X。

类似的,P(X|H)是条件H下,X的后验概率。P(X)是X的先验概率。

  贝叶斯定理为:P(H|X)=P(X|H)*P(H)/P(X)。      PS:如果对这个公式有不清楚的,可以去看看概率论一书。

3.朴素贝叶斯(Naive Bayesian)分类

  工作过程如下:

    a.设D是训练元组和它们相关联的类标号的集合。通常,每个元组用一个n维属性向量X={x1,x2,...,xn}表示,描述有n个属性A1,A2,...,An对元组的n个测量。

    b.假定有m个类C1,C2,...,Cm。给定元组X,分类法将预测X属于具有最高后验概率的类(在条件X下)。也就是说,朴素贝叶斯分类法预测X属于类Ci,当且仅当P(Ci|X)>P(Cj|X)  1<=j<=m,j!=i,这样,最大化P(Ci|X)。P(Ci|X)最大的类Ci称为最大后验概率假设。根据贝叶斯定理,P(Ci|X)=P(X|Ci)*P(Ci)/P(X)。

    c.由于P(X)对所有类为常数,所以只需要P(X|Ci)*P(Ci)最大即可。如果类的先验概率未知,则通常假定这些类是等概率的,即P(C1)=P(C2)=...=P(Cm),并据此对P(X|Ci)最大化。否则最大化P(X|Ci)*P(Ci)。注意,类先验概率可以用P(Ci)=|C(i,D)|/|D|估计,其中|C(i,D)|是D中Ci类的训练元组数。

    d.给定具有许多属性的数据集,计算P(X|Ci)的开销可能非常大。为了降低P(X|Ci)的开销,可以做类条件独立的朴素假定。给定元组的类标号,假定属性值有条件的相互独立(即属性之间不存在依赖关系)。因此,P(X|Ci)=∏P(xk|Ci)=P(x1|Ci)*P(x2|Ci)*P(x3|Ci)...P(xn|Ci) ;其中k=1,2,...,n 可以很容易的由训练元组估计概率P(x1|Ci),P(x2|Ci),...,P(xn|Ci)。注意,xk表示元组X在属性Ak的值。对于每个属性,考虑该属性是分类的还是连续值的。可以考虑如下两种情况:

      (1).如果Ak是分类属性,则P(xk|Ci)是D中属性Ak的值为xk的Ci类的元组数除以D中Ci类的元组数|C(i,D)|。

      (2).如果Ak是连续值属性,则需要多做一点工作,但计算很简单。通常,假定连续值属性服从均值为u,标准差为σ的高斯分布,由下式定义

            g(x,u,σ)=1/(sqrt(2π)*σ) * exp{-(x-u)^2/(2*σ^2)}   ;因此 P(xk|Ci)=g(xk,u_ci,σ_ci);  其中u_ci和σ_ci分别为Ci类训练元组属性Ak的均值和标准差。

    e.为了预测X的类标号,对每个类Ci,计算P(X|Ci)*P(Ci)。该分类法预测输入元组X的类为Ci,当且仅当  P(X|Ci)*P(Ci)>P(X|Cj)*P(Cj),   1<=j<=m,j!=i  。换言之,被预测的类标号是使P(X|Ci)*P(Cj)最大的类Ci。

4.贝叶斯分类法的有效性

    理论上讲,与其他所有分类算法相比,贝叶斯分类法具有最小的错误率。然而,实践中并非总是如此。这是由于对其使用的假定(如类条件独立性)的不正确性,以及缺乏可用的概率数据造成的。

5.消除零概率值

    在计算P(X|Ci)时,它的值可能为零。带入贝叶斯公式,这个零概率会消除乘积中涉及的所有其他(后验概率)的影响。

    可以假定训练数据库D很大,以至于对每个计数加1造成的估计概率的变换可以忽略不计,但可以方便的避免概率值为零。这种概率估计技术称为拉普拉斯校准或拉普拉斯估计法。如果对q个计数都加上1,则必须记住在用于计算概率的对应分母上加上q。

PS:总的来说贝叶斯分类法的原理还是非常简单的,编程实现起来并不困难。

时间: 2024-08-28 03:58:45

贝叶斯分裂方法总结的相关文章

【转载】判别模型、生成模型与朴素贝叶斯方法

判别模型.生成模型与朴素贝叶斯方法 转载时请注明来源:http://www.cnblogs.com/jerrylead 1判别模型与生成模型 上篇报告中提到的回归模型是判别模型,也就是根据特征值来求结果的概率.形式化表示为,在参数确定的情况下,求解条件概率.通俗的解释为在给定特征后预测结果出现的概率. 比如说要确定一只羊是山羊还是绵羊,用判别模型的方法是先从历史数据中学习到模型,然后通过提取这只羊的特征来预测出这只羊是山羊的概率,是绵羊的概率.换一种思路,我们可以根据山羊的特征首先学习出一个山羊

从朴素贝叶斯分类器到贝叶斯网络(下)

书接上文 :从朴素贝叶斯分类器到贝叶斯网络(上) 三.贝叶斯网络 贝叶斯网络(Bayesian Network)是一种用于表示变量间依赖关系的数据结构.有时它又被称为信念网络(Belief Network)或概率网络(Probability Network).在统计学习领域.概率图模型(PGM,Probabilistic Graphical Models)经常使用来指代包括贝叶斯网络在内的更加宽泛的一类机器学习模型.比如隐马尔可夫模型(HMM,Hidden Markov Model)也是一种PG

贝叶斯的学习

贝叶斯法则 贝叶斯法则又被称为贝叶斯定理.贝叶斯规则,是指概率统计中的应用所观察到的现象对有关概率分布的主观判断(即先验概率)进行修正的标准方法.当分析样本大到接近总体数时,样本中事件发生的概率将接近于总体中事件发生的概率. 贝叶斯统计中的两个基本概念是先验分布和后验分布: 1.先验分布.总体分布参数θ的一个概率分布.贝叶斯学派的根本观点,是认为在关于总体分布参数θ的任何统计推断问题中,除了使用样本所提供的信息外,还必须规定一个先验分布,它是在进行统计推断时不可缺少的一个要素.他们认为先验分布不

PRML 02 Introduction:贝叶斯概率

引言 概率密度 期望和协方差 Expectations and covariances 1加权平均值 2 多变量权重 3 条件期望 4 函数方差 5 协方差 Bayesian Probability 5高斯分布 重回多项式拟合 1理解误差函数 2 理解规则化 贝叶斯曲线拟合 主要讲解了贝叶斯概率与统计派概率的不同.概率论,决策论,信息论(probability theory, decision theory, and information theory)是以后用到的三个重要工具,本节主要介绍概

贝叶斯方法

学习资料:http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/ 概率论只不过是把常识用数学公式表达了出来. ——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目录 0. 前言 1. 历史  

机器学习实战读书笔记(四)基于概率论的分类方法:朴素贝叶斯

4.1 基于贝叶斯决策理论的分类方法 朴素贝叶斯 优点:在数据较少的情况下仍然有效,可以处理多类别问题 缺点:对于输入数据的准备方式较为敏感 适用数据类型:标称型数据 贝叶斯决策理论的核心思想:选择具有最高概率的决策. 4.2 条件概率 4.3 使用条件概率来分类 4.4 使用朴素贝叶斯进行文档分类 朴素贝叶斯的一般过程: 1.收集数据 2.准备数据 3.分析数据 4.训练算法 5.测试算法 6.使用算法 朴素贝叶斯分类器中的另一个假设是,每个特征同等重要. 4.5 使用Python进行文本分类

数学之美番外篇:平凡而又神奇的贝叶斯方法

转载自:http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/ 概率论只不过是把常识用数学公式表达了出来. ——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目录 0. 前言 1. 历史   

《机器学习实战》学习笔记:基于朴素贝叶斯的分类方法

概率是许多机器学习算法的基础,在前面生成决策树的过程中使用了一小部分关于概率的知识,即统计特征在数据集中取某个特定值的次数,然后除以数据集的实例总数,得到特征取该值的概率. 目录: 一.基于贝叶斯理论的分类方法 二.关于朴素贝叶斯的应用场景 三.基于Python和朴素贝叶斯的文本分类 1.准备数据 2.训练算法 3.测试算法 四.小结 以下进入正文: 一.基于贝叶斯理论的分类方法 假设有两类数据组成的数据集如下: 其中,假设两个概率分布的参数已知,并用p1(x,y)表示当前数据点(x,y)属于类

【转载】数学之美番外篇:平凡而又神奇的贝叶斯方法

数学之美番外篇:平凡而又神奇的贝叶斯方法 BY 刘未鹏 – SEPTEMBER 21, 2008POSTED IN: 数学, 机器学习与人工智能, 计算机科学 概率论只不过是把常识用数学公式表达了出来. ——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目