贝叶斯和朴素贝叶斯是啥

目录

  • 一、贝叶斯

    • 先验概率、似然概率、后验概率
    • 公式推导
  • 二、为什么需要朴素贝叶斯
  • 三、朴素贝叶斯是什么
    • 条件独立
    • 举例:长肌肉
    • 拉普拉斯平滑
    • 半朴素贝叶斯

一、贝叶斯

简单地说,贝叶斯就是你见到贝克汉姆,说了一句yes,研究的是这种概率事件。

开玩笑啦,贝叶斯原理是英国数学家托马斯·贝叶斯提出的,为了解决一个“逆概率”问题。

例如,如果一个男人发现了他老婆手机里暧昧短信 ,计算机他老婆出轨的概率。

现实生活中,我们很难知道事情的全貌,当不能准确预知一个事物本质的时候,但是可以依靠和事物本质相关的事件来进行判断。

先验概率、似然概率、后验概率

贝叶斯原理类似概率反转,通过先验概率和似然概率,推导出后验概率。

什么是先验概率、似然概率、后验概率?

再以上面出轨的例子为例,

  • 先验概率:男人的老婆没有任何情况,出轨的概率
  • 似然概率:男人的老婆出轨了,手机里有暧昧短信的概率
  • 后验概率:男人发现老婆手机有暧昧短信,计算他老婆出轨概率

再举个例子,产品由不同的工厂ABC生产,每个工厂都有自己的次品率

  • 先验概率:A厂的产品占产品总数的比例
  • 似然概率:A厂的次品率
  • 后验概率:已知一件产品是次品,推断这件产品来自在A厂的概率。(次品可能来自ABC中任意一个厂)

似然概率是由假设正推结果,后验概率是由结果倒推假设

公式推导

  • \(P(A|B)\):表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。
  • \(P(AB)\):表示事件A和事件B同时发生的概率
  • \(P(AB)=P(BA)\),可得\(P(AB)=P(BA)=P(B|A)P(A)=P(A|B)P(B)\)
  • 通过\(P(A|B)\)来求\(P(B|A)\),可得\(P(B|A)=\frac {P(A|B)P(B)} {P(A)}\)
  • 分母\(P(A)\)可以根据全概率公式分解为:\(P(A)=\sum_{i=1}^n P(B_i)P(A|B_i)\)
  • 最终公式变为:\(P(B|A)=\frac {P(A|B)P(B)} {\sum_{i=1}^n P(B_i)P(A|B_i)}\)

二、为什么需要朴素贝叶斯

假设训练数据的属性由n维随机向量x表示,分类结果用随机变量y表示,那x和y的统计规律就可以用联合概率分布\(P(X,Y)\)描述,每个具体的样本\((x_i,y_i)\)都可以通过\(P(X,Y)\)独立同分布地产生。

贝叶斯分类器的出发点是联合概率分布,根据条件概率性质可以得到

\(P(X,Y)=P(Y)?P(X∣Y)=P(X)?P(Y∣X)\)

  • \(P(Y)\):每个类别出现的概率,先验概率
  • \(P(X|Y)\):给定的类别下不同属性出现的概率,似然概率

先验概率很容易计算出来,只需要统计不同类别样本的数目即可,而似然概率受属性数目的影响,估计较为困难。

例如,每个样本包含100个属性,每个属性的取值可能有100种,那分类的每个结果,要计算的条件概率是\(100^2=10000\),数量量非常庞大。因此,这时候引进了朴素贝叶斯

三、朴素贝叶斯是什么

朴素贝叶斯,加了个朴素,意思是更简单的贝叶斯。

朴素贝叶斯假定样本的不同属性满足条件独立性假设,并在此基础上应用贝叶斯定理执行分类任务。

简单地说是

对于给定的待分类项x,分析样本出现在每个类别中的后验概率,将后验概率最大的类作为x所属的类别

条件独立

要解决似然概率难以估计的问题,就需要引入条件独立性假设

条件独立性假设保证了所有属性相互独立,互不影响,每个属性独立地对分类结果发生作用。

这样条件概率变成了属性条件概率的乘积

\(P(X=x∣Y=c)=\)

\(P(X(1)=x(1),X(2)=x(2),?,X(n)=x(n)∣Y=c)\)

\(\prod_{j=1}^nP(X^j=x^j|Y=c)\)

这是朴素贝叶斯方法,有了训练数据集,先验概率\(P(Y)\)和你似然概率\(P(X|Y)\)就可以视为已知条件,用来求解后验概率\(P(X|Y)\)。

给定的输入x,朴素贝叶斯分类器利用贝叶斯定理求解后验概率,并将后验概率最大的类作为输出

举例:长肌肉

肌肉是训练、睡眠、饮食多种因素组合的结果

训练 睡眠 饮食
非常好 非常好 非常好
一般 一般 一般
不太好 不太好 不太好
不好 不好 不好
非常不好 非常不好 非常不好

如果要计算后验概率,假设属性不独立,\(6^3\)就有了216组合,例如其中一种组合是{训练:好,睡眠:不好,包含:一般},这样的组合复杂度太高了

如条件独立互不影响后,只需要考虑3个维度的结果,把最终的属性概率相乘,例如是80%(训练) * 85%(睡眠) * 90%(饮食),算复杂度降低了几个数量级。

拉普拉斯平滑

受训练数据集规模的限制,某个属性的取值可能在训练集中从未与某个类同时出现,这就可能导致属性条件概率为0,些时直接使用朴素贝叶斯分类就会导致错误的结论。

例如:在训练集中没有样本同时具有“年龄大于 60”的属性和“发放贷款”的标签,那么当一个退休人员申请贷款时,即使他是李嘉诚,朴素贝叶斯分类器也会因为后验概率等于零拒绝。

因为训练集样本的不充分导致分类错误,不是理想的结果,为了避免这种干扰,在计算属性条件概率时需要添加一个“拉普拉斯平滑”的步骤。

拉普拉斯平滑就是计算类先验概率和属性条件概率时,在分子上添加一个较小的修正量,在分母上则添加这个修正量与分类数目的乘积,避免了零概率对分类结果的影响。

半朴素贝叶斯

属性之间可能具有相关性,而朴素贝叶斯独立假设性会影响分类性能。

半朴素贝叶斯分类器考虑了部分属性之间的依赖关系,既保留了属性之间较强的相关性,又不需要完全计算复杂的联合概率分布。

常用方法是建立独依赖关系:假设每个属性除了类别之外,最多只依赖一个其他属性。

原文地址:https://www.cnblogs.com/chenqionghe/p/12598786.html

时间: 2024-08-04 20:25:27

贝叶斯和朴素贝叶斯是啥的相关文章

贝叶斯、朴素贝叶斯及调用spark官网 mllib NavieBayes示例

贝叶斯法则 机器学习的任务:在给定训练数据D时,确定假设空间H中的最佳假设. 最佳假设:一种方法是把它定义为在给定数据D以及H中不同假设的先验概率的有关知识下的最可能假设 贝叶斯理论提供了一种计算假设概率的方法,基于假设的先验概率.给定假设下观察到不同数据的概率以及观察到的数据本身 先验概率和后验概率 用P(A)表示在没有训练数据前假设A拥有的初始概率.P(A)被称为A的先验概率. 先验概率反映了关于A是一正确假设的机会的背景知识 如果没有这一先验知识,可以简单地将每一候选假设赋予相同的先验概率

关于朴素贝叶斯

朴素贝叶斯或者说基于贝叶斯理论的决策方法都是生成式模型.那么什么是生成式模型呢?生成式模型和判别式模型的概念分别是什么?大体来说,给定数据集x,可以直接通过建模P(c|x)来预测c,这样得到的是判别式模型.像BP网络,支持向量机,决策树都属于判别式模型.如果先对联合概率分布P(x,c)建模,然后再由此获得P(c|x),这样得到的生成式模型,例如朴素贝叶斯. 朴素贝叶斯应用的先决条件是"属性条件独立假设",即已知类别,假设所有属性相互独立.

数据挖掘|朴素贝叶斯算法

作者:张一 链接:https://zhuanlan.zhihu.com/p/21571692 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 因为后期的项目将涉及到各种各样的价格数据处理问题,所以我们现在开始学习一些简单的数据清洗与算法的知识.关于算法,以前听起来觉得好高大上,现在开始学,觉得书上的描述并不是很通俗易懂,所以用自己的语言来简要写一下这些算法~ 注:非商业转载注明作者即可,商业转载请联系作者授权并支付稿费.本人已授权"维权骑士"网站(ht

ML—朴素贝叶斯

华电北风吹 日期:2015/12/12 朴素贝叶斯算法和高斯判别分析一样同属于生成模型.但朴素贝叶斯算法须要特征条件独立性如果,即样本各个特征之间相互独立. 一.朴素贝叶斯模型 朴素贝叶斯算法通过训练数据集学习联合概率分布p(x,y),其中x=(x1,x2,...,xn)∈Rn,y∈R.详细的对于K分类问题就是须要学习一个类别的先验概率分布p(y=ck),k=1,2,...,K和每一个类别下的条件概率分布(如式1-1) p(x|y)=p(x1,x2,...,xn|y)(1-1) 因为朴素贝叶斯算

概率--学习朴素贝叶斯分布

概率是一种基于事件发生可能性来描述未来趋势的数学工具.其本质就是通过过去已经发生的事情来推断未来事件,并且将这种推断放在一系列的公理化的数学空间当中进行考虑.例如,抛一枚均质硬币,正面向上的可能性多大?概率值是一个0-1之间的数字,用来衡量一个事件发生可能性的大小.概率值越接近于1,事件发生的可能性越大,概率值越接近于0,事件越不可能发生.天气预报员通常会使用像"明天80%的可能性会下雨"这样的术语来对降雨进行预测,这里70%或者0.7就是下雨的概率.在现实生活中,要么下雨,要么不下雨

Step by Step 改进朴素贝叶斯算法

引言 如果你对naive bayes认识还处于初级阶段,只了解基本的原理和假设,还没有实现过产品级的代码,那么这篇文章能够帮助你一步步对原始的朴素贝叶斯算法进行改进.在这个过程中你将会看到朴素贝叶斯假设的一些不合理处以及局限性,从而了解为什么这些假设在简化你的算法的同时,使最终分类结果变得糟糕,并针对这些问题提出了改进的方法. 朴素贝叶斯(Naive Bayes) 出处: <机器学习>(Machine Learning by Tom M.Mitchell) 符号和术语 假设待分类的实例 X 可

统计学习方法 李航---第4章 朴素贝叶斯法

第4章 朴素贝叶斯法 朴素贝叶斯 (naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法.对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布:然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出Y. 4.1 朴素贝叶斯法的学习与分类 基本方法 朴素贝叶斯法通过训练数据集学习X和Y的联合概率分布 P(X,Y). 具体地,学习以 下先验概率分布及条件概率分布. 先验概率分布 条件概率分布 条件概率分布有指数级数量的参数,其估计实际是不可行的

通俗易懂机器学习——朴素贝叶斯算法

本文将叙述朴素贝叶斯算法的来龙去脉,从数学推导到计算演练到编程实战 文章内容有借鉴网络资料.李航<统计学习方法>.吴军<数学之美>加以整理及补充 基础知识补充: 1.贝叶斯理论–吴军数学之美 http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/ 2.条件概率 3.联合分布 朴素贝叶斯算法 朴素贝叶斯法是基于贝叶斯定理和特征条件独立假设的 分类方法.给定训练数据集,首先基于特征条件独立假设学习 输入/输出的联合概率分布

机器学习之朴素贝叶斯算法

1 贝叶斯定理的引入 概率论中的经典条件概率公式: 公式的理解为,P(X ,Y)= P(Y,X)<=> P(X | Y)P(Y)= P(Y | X)P (X),即 X 和 Y 同时发生的概率与 Y 和 X 同时发生的概率一样. 2 朴素贝叶斯定理 朴素贝叶斯的经典应用是对垃圾邮件的过滤,是对文本格式的数据进行处理,因此这里以此为背景讲解朴素贝叶斯定理.设D 是训练样本和相关联的类标号的集合,其中训练样本的属性集为          X { X1,X2, ... , Xn }, 共有n 个属性: