机器学习之贝叶斯分类器

贝叶斯分类器(Bayesian decision theory)

  贝叶斯决策论是概率框架下实施决策的基本方法,通过相关概率预先已知的情况下对误判损失来选择最优的类别分类。

  将标记为cj的样本误分类成ci产生的期望损失,即样本上的“条件风险”为

  贝叶斯分类的最基本的思想是:为了最小化总体风险,只需在每个样本上选择能够使条件风险R(c|x)最小的类别标记。

  要想用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x),机器学习则是基于有限的训练样本集尽可能准确的估计出后验概率P(c|x)。通常有两种模型:1.“判别式模型”: 通过直接建模P(c|x)来预测。2.“生成式模型”:通过对联合概率模型P(x,c)进行建模,然后再获得P(c|x)。

  P(c)是类“先验”概率,P(x|c)是样本x相对于类标记条件概率,或称似然。似然函数定义(对同一个似然函数,如果存在一个参数值,使得它的函数值达到最大的话,那么这个值就是最为“合理”的参数值。可参考http://www.cnblogs.com/kevinGaoblog/archive/2012/03/29/2424346.html)

  对于P(c)而言代表样本空间中各类样本所占的比例,根据大数定理当训练集包含充足的独立同分布样本时,可通过各类样本出现的频率进行估计。对于P(x|c)而言,涉及关于所有属性的联合概率,无法根据样本出现的频率进行估计。

7.2极大似然估计

  假设P(x|c)具有确定的形式并且被参数向量唯一确定,则我们的任务是利用训练集估计参数Qc,将P(x|c)记为P(x|Qc)。令Dc表示训练集D第c类样本的集合,假设样本独立同分布,则参数Qc对于数据集Dc的似然是

  连乘容易造成下溢,通常使用对数似然

  注意。这种参数化的方法虽然能使类条件概率估计变得相对简单,但是估计结果的准确性严重依赖所假设的概率分布形式是否符合潜在的真实数据分布。有限的数据集合难以直接估计其联合概率分布。故此我们提出朴素贝叶斯分类器。

7.3朴素贝叶斯分类器

  为了避开联合概率分布这一障碍,朴素贝叶斯分类器采用了“属性条件独立性假设”:对已知类别,假设所有属性相互独立。

  若存在某个属性值在训练的过程中没有与某个类同时出现过,直接利用式子进行概率估计将会出错。因为会存在某一属性为概率0,导致无论其他属性多好都将为零。为了避免上述产生的将某种未出现的属性值抹去,在估计概率时可进行“平滑”(smoothing),常用“拉普拉斯修正”。具体来说可以令N表示训练集D中可能的类别数,Ni表示第i个属性可能的取值数。

  拉普拉斯修正避免了因训练集样本不充分而导致概率估值为零的问题,并且在训练集变大时,修正过程所引入的先验(prior)的影响也会逐渐变得可忽略,使得估值逐渐趋于实际的概率值。

  在现实任务中朴素贝叶斯分类器有很多种使用方式。对预测速度要求较高的,将所有概率的估计值事先计算好存储起来,这样在进行预测是只需要查表就可以进行判别。若任务数据更替频繁,则可采用懒惰学习(lazy learning),收到数据进行概率估计,若数据不断增加,则可在现有的估值基础上,仅对新增样本属性值所涉及的概率估值进行技术修正即可实现增量学习。

7.4 半朴素贝叶斯分类器

  朴素贝叶斯分类器采用属性完全独立的假设,在现实生活中通常难以成立,对属性条件独立性假设进行一定程度的放松,由此产生一类“半朴素被夜色分类器”(semi-naive Bayes classifiers)的学习方法,不需要进行完全联合概率计算,又不至于彻底忽略了比较强的属性依赖关系。

  “独依赖估计”(One dependent Estimator, ODE),假设每个属性在类别之外最多依赖一个其他的属性

  pai为属性xi所依赖的属性,称为xi的父属性。若对每个属性xi,其父属性已知,则可用类似如下的方法进行估计概率

  因此我们将问题转化成确定每个属性的父属性。1. SPODE:确认一个超父属性,其余属性都依赖该属性。2.TAN(最大带全生成树)

时间: 2024-08-09 00:49:15

机器学习之贝叶斯分类器的相关文章

神经网络与机器学习笔记——贝叶斯分类器

高斯环境下贝叶斯分类器退化为线性分类器,与感知器形式一样,但是感知器的线性特性并不是由于高斯假设而引起的. 贝叶斯分类器: 高斯分布下的贝叶斯分类器 更多关于神经网络笔记见我的专栏:神经网络与机器学习笔记

机器学习——朴素贝叶斯分类器

假设现在要构建一个网络图书馆,我们可以给新进来的书贴上若干个标签,没有机器学习算法的情况下,我们需要给这些书手动分类,是计算机类的呀,还是非计算机类的呀,是小说类的呀,还是非小说类的云云. 那么,我们可以通过让程序自己学习如何通过一本书上的若干标签来进行图书类别的区分,这样就可以节省很多人力,这也是机器学习的魅力体现. 机器学习的基本原理是通过开发者给出这个程序一个学习集进行学习,再通过用户给的用户数据集进行学习的过程,机器学习包含很多的算法,当然,有大量数据的前提下,机器学习就和统计学密不可分

机器学习:贝叶斯分类器

参考文献 从贝叶斯定理说开去 关键词:逆向概率:先验概率:后验概率 我所理解的贝叶斯定理--知乎专栏 关键词:医院病症检测中的真假阳性 似然与极大似然估计--知乎专栏 关键词:似然与概率的区别

机器学习系列-朴素贝叶斯分类器

贝叶斯分类器 什么是贝叶斯分类器 贝叶斯分类器是一类分类器的总称,这些分类器均以贝叶斯定理为基础,故统称为贝叶斯分类器.这些分类器中最简单的是朴素贝叶斯分类器,它几乎完全按照贝叶斯定理进行分类,因此我们从朴素贝叶斯分类器说起. 贝叶斯定理: 贝叶斯定理是概率论中一个比较重要的定理,在讲解贝叶斯定理之前,首先回顾一下贝叶斯定理的基础:条件概率和全概率公式. 条件概率:设\(A,B\)是两个事件,且\(P(A)>0\),称 \[P(B|A)=\frac{P(AB)}{P(A)}\] 为在事件\(A\

数据挖掘-贝叶斯分类器

数据挖掘-贝叶斯分类 目录 数据挖掘-贝叶斯分类 1. 贝叶斯分类器概述 1.1 贝叶斯分类器简介 1.1.1 什么是贝叶斯分类器? 1.1.2 朴素贝叶斯分类器 2. 数学基础 2.1 概率论 2.1.1 概率 2.1.2 贝叶斯理论 3. 贝叶斯决策论 3.1 贝叶斯决策 3.1.1 贝叶斯决策介绍 3.2 基于最小错误率的贝叶斯决策 3.2.1 什么时候会分错类? 3.2.2 基于最小错误率的贝叶斯分类器 3.2.3 基于最小错误率的贝叶斯决策的证明 3.2.4 分类决策边界 3.2 基于

贝叶斯分类器

贝叶斯分类是统计学的一个分类方法,基于贝叶斯定理.首先贝叶斯分类的一个核心假设是一个属性值对给定类的影响独立于其他属性的值(类条件独立). 先来看下条件概率: 设A.B是两个事件,且P(B)>0,则称 为在事件B发生的条件下,事件A的条件概率. 再来看一下贝叶斯定理:. 其中: X 是类标识未知的数据样本(或数据元组) 如:35岁收入$4000的顾客 H 是数据样本X属于某特定类C的某种假定. 如:假设顾客将购买计算机 P(H/X):条件X下H的后验概率 如:知道顾客年龄与收入时,顾客将购买计算

MATLAB实现贝叶斯分类器

贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类.也就是说,贝叶斯分类器是最小错误率意义上的优化,它遵循"多数占优"这一基本原则. 一.分类器的基本概念 经过了一个阶段的模式识别学习,对于模式和模式类的概念有一个基本的了解,并尝试使用MATLAB实现一些模式类的生成.而接下来如何对这些模式进行分类成为了学习的第二个重点.这就需要用到分类器. 表述模式分类器的方式有很多种,其中用的最多的是一

机器学习—朴素贝叶斯

机器学习-朴素贝叶斯 本文代码均来自<机器学习实战> 朴素贝叶斯的两个基本假设: 独立:一个特征出现的可能性和与它和其他特征相邻没有关系 每个特征同等重要 这段代码是以文本分类为例介绍朴素贝叶斯算法的 要从文本中获取特征,需要先拆分文本.这里的特征是来自文本的词条(token),一个词条是字符的任意组合.可以把词条想象为单词,也可以使用非单词词条,如URL.IP地址或者任意其他字符串.然后将一个文本片段表示为一个词向量,其中值为1表示词条出现,0表示词条未出现. ??以在线社区的留言板为例,为

机器学习-朴素贝叶斯原理及Python实现

机器学习-朴素贝叶斯原理及Python实现 贝叶斯公式 P(A|B) = (P(B|A)P(A))/P(B) 举例:苹果10个,有2个黄色:梨10个,有6个黄色,求拿出一个黄色水果,是苹果的概率. 代入公式: P(苹果|黄色) = (P(黄色|苹果)P(苹果))/P(黄色) P(黄色) = (2+6)/20 = 2/5 P(苹果) = 10/20 = 1/2 = 0.5 P(黄色|苹果)=1/5 P(黄色|苹果)P(苹果) = P(黄色,苹果) = 1/5*1/2 = 1/10 = 0.1 P(