朴素贝叶斯分类器学习

1.朴素贝叶斯概率模型的数学实质:独立条件概率。 朴素在这里的含义就是各影响因子概率发生独立。

2.朴素贝叶斯分类器的数学模型:条件概率模型

P(C|F1F2...Fn)=P(C)P(F1F2...Fn|C)/P(F1F2...Fn)                    (1)

这里Fn代表的是独立变量C的若干个特征变量(影响因子)。

我们知道,对于数据的分类,Fn是已知的,对于P(F1F2...Fn)来说,他们只受到Fn的影响和独立变量C没有关系,所以对于(1)式,我们进行化简

P(C|F1F2...Fn)~P(C)P(F1F2...Fn|C)                                       (2)(~代表正比于)

因为各特征变量是独立的,所以对于(2)式,我们可以把它变成

P(C|F1F2...Fn)~P(C)P(F1|C)P(F2|C)...P(Fn|C)                         (3)

最后,我们说

P(C|F1F2...Fn)= Z*P(C)P(F1|C)P(F2|C)...P(Fn|C)                     (4)

3.对于(4)式,我们对于每一个量进行一下解释

P(C|F1F2...Fn)这是我们的目标,在已知一个独立变量C的特征变量Fn的情况下,怎么把独立变量C合理的分类

P(C) 这是独立变量C的先验概率,仅仅是一个值。

先验概率分为两类:

a.根据历史数据得到  e.g.根据概率论中大数定理,当训练样本数量足够多且来自于样本空间的随机选取时,可以以训练集中各类样本所占的比例来估计P(C)的值

b.人的主观判断   e.g. 对于C的性别进行分类 P(male)=P(female)=1/2

P(Fn|C)这是一个独立概率分布,这就是我们需要用已知的数据进行训练得到(就是一个条件概率),方法分为参数估计和非参数估计

a.参数估计:假定条件概率具有某种分布形式,例如正态分布二项分布

b.非参数估计:不假设或者不知道条件概率具有某种分布形式,根据数据所具有的特征发生的频率代表它的概率,常用的方法是最大似然估计法,如果是一个连续连续数据可以选择高斯分布。另一种方法是离散化连续数值的方法。

Z是一个常数,只和Fn有关,通常用来使后验概率的和为1

4.如果要是在对一个独立变量X进行分类时发现了它有一些新的特征,这在训练时是没有的,所以会出现概率为0的情况,这时候就要对数据进行修正,确保不会出现概率为0导致无法分类的情况。

以上我们讨论完了朴素贝叶斯概率分布模型,下面我们从概率模型中构造一个分类器

分类器的构成包括了刚才我们讨论的朴素贝叶斯分类模型决策规则。根据决策规则的不同,分类是不一样的。(让我想到了matlab作业要我们对数据进行聚类分析。不同的规则带来不同的结果。) e.g.最小错误率贝叶斯分类器, 最大似然比贝叶斯分类器,最小风险贝叶斯分类器。

这里对于分类器的实现不展开说了,放在具体实现的随笔里。

本文仅仅是对自己学习的知识的一个整理,没有独创新的见解。

资料来源

http://zh.wikipedia.org/zh-cn/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%88%86%E7%B1%BB%E5%99%A8

时间: 2024-10-16 07:30:23

朴素贝叶斯分类器学习的相关文章

PGM学习之三 朴素贝叶斯分类器(Naive Bayes Classifier)

介绍朴素贝叶斯分类器的文章已经很多了.本文的目的是通过基本概念和微小实例的复述,巩固对于朴素贝叶斯分类器的理解. 一 朴素贝叶斯分类器基础回顾 朴素贝叶斯分类器基于贝叶斯定义,特别适用于输入数据维数较高的情况.虽然朴素贝叶斯分类器很简单,但是它确经常比一些复杂的方法表现还好. 为了简单阐述贝叶斯分类的基本原理,我们使用上图所示的例子来说明.作为先验,我们知道一个球要么是红球要么是绿球.我们的任务是当有新的输入(New Cases)时,我们给出新输入的物体的类别(红或者绿).这是贝叶斯分类器的典型

从朴素贝叶斯分类器到贝叶斯网络(下)

书接上文 :从朴素贝叶斯分类器到贝叶斯网络(上) 三.贝叶斯网络 贝叶斯网络(Bayesian Network)是一种用于表示变量间依赖关系的数据结构.有时它又被称为信念网络(Belief Network)或概率网络(Probability Network).在统计学习领域.概率图模型(PGM,Probabilistic Graphical Models)经常使用来指代包括贝叶斯网络在内的更加宽泛的一类机器学习模型.比如隐马尔可夫模型(HMM,Hidden Markov Model)也是一种PG

数据挖掘十大经典算法(9) 朴素贝叶斯分类器 Naive Bayes

贝叶斯分类器 贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类.眼下研究较多的贝叶斯分类器主要有四种,各自是:Naive Bayes.TAN.BAN和GBN. 贝叶斯网络是一个带有概率凝视的有向无环图,图中的每个结点均表示一个随机变量,图中两结点 间若存在着一条弧,则表示这两结点相相应的随机变量是概率相依的,反之则说明这两个随机变量是条件独立的.网络中随意一个结点X 均有一个对应的条件概率表(Con

贝叶斯分类器学习笔记

我们知道,对于人类来说学习通常是指通过经验获得知识从而导致可度量的行为变化.也就是说我们通过经验获得了知识,然后这些知识又对我们未来的行为产生了影响.而机器学习则是让机器来进行学习,因此我们也可以认为机器学习同样是让机器通过经验(在计算机中表现为数据)获得知识(知识即为我们的模型),然后基于这些知识(模型)来对我们未来的行为产生影响(即不同的模型在接收到未来的新数据可能会得到不同的label).对于人类来说最重要的是正确知识的获取,这对于机器来说也是一样的,最重要的是获得合适的模型.对于人类来说

从朴素贝叶斯分类器到贝叶斯网络(上)

一.贝叶斯公式(一些必备的数学基础) 贝叶斯(Thomas Bayes)是生活在十八世纪的一名英国牧师和数学家.因为历史久远,加之他没有太多的著述留存,今天的人们对贝叶斯的研究所知甚少.唯一知道的是,他提出了概率论中的贝叶斯公式.但从他曾经当选英国皇家科学学会会员(类似于院士)来看,他的研究工作在当时的英国学术界已然受到了普遍的认可. 事实上,在很长一段时间里,人们都没有注意到贝叶斯公式所潜藏的巨大价值.直到二十世纪人工智能.机器学习等崭新学术领域的出现,人们才从一堆早已蒙灰的数学公式中发现了贝

基于朴素贝叶斯分类器的文本分类算法

源代码下载:NaviveBayesClassify.rar Preface 文本的分类和聚类是一个比较有意思的话题,我以前也写过一篇blog<基于K-Means的文本聚类算法>,加上最近读了几本数据挖掘和机器学习的书籍,因此很想写点东西来记录下学习的所得. 在本文的上半部分<基于朴素贝叶斯分类器的文本分类算法(上)>一文中简单介绍了贝叶斯学习的基本理论,这一篇将展示如何将该理论运用到中文文本分类中来,具体的文本分类原理就不再介绍了,在上半部分有,也可以参见代码的注释. 文本特征向量

十大经典数据挖掘算法(9) 朴素贝叶斯分类器 Naive Bayes

贝叶斯分类器 贝叶斯分类分类原则是一个对象的通过先验概率.贝叶斯后验概率公式后计算.也就是说,该对象属于一类的概率.选择具有最大后验概率的类作为对象的类属.现在更多的研究贝叶斯分类器,有四个,每间:Naive Bayes.TAN.BAN和GBN. 贝叶斯网络是一个带有概率凝视的有向无环图.图中的每个结点均表示一个随机变量,图中两结点 间若存在着一条弧.则表示这两结点相相应的随机变量是概率相依的,反之则说明这两个随机变量是条件独立的.网络中随意一个结点X 均有一个对应的条件概率表(Conditio

机器学习---朴素贝叶斯分类器(Machine Learning Naive Bayes Classifier)

朴素贝叶斯分类器是一组简单快速的分类算法.网上已经有很多文章介绍,比如这篇写得比较好:https://blog.csdn.net/sinat_36246371/article/details/60140664.在这里,我按自己的理解再整理一遍. 在机器学习中,我们有时需要解决分类问题.也就是说,给定一个样本的特征值(feature1,feature2,...feauren),我们想知道该样本属于哪个分类标签(label1,label2,...labeln).即:我们想要知道该样本各个标签的条件概

朴素贝叶斯分类器及Python实现

贝叶斯定理 贝叶斯定理是通过对观测值概率分布的主观判断(即先验概率)进行修正的定理,在概率论中具有重要地位. 先验概率分布(边缘概率)是指基于主观判断而非样本分布的概率分布,后验概率(条件概率)是根据样本分布和未知参数的先验概率分布求得的条件概率分布. 贝叶斯公式: P(A∩B) = P(A)*P(B|A) = P(B)*P(A|B) 变形得: P(A|B)=P(B|A)*P(A)/P(B) 其中 P(A)是A的先验概率或边缘概率,称作"先验"是因为它不考虑B因素. P(A|B)是已知