数据挖掘-贝叶斯分类器

数据挖掘-贝叶斯分类

目录

  • 数据挖掘-贝叶斯分类

    • 1. 贝叶斯分类器概述

      • 1.1 贝叶斯分类器简介

        • 1.1.1 什么是贝叶斯分类器?
        • 1.1.2 朴素贝叶斯分类器
    • 2. 数学基础
      • 2.1 概率论

        • 2.1.1 概率
        • 2.1.2 贝叶斯理论
    • 3. 贝叶斯决策论
      • 3.1 贝叶斯决策

        • 3.1.1 贝叶斯决策介绍
      • 3.2 基于最小错误率的贝叶斯决策
        • 3.2.1 什么时候会分错类?
        • 3.2.2 基于最小错误率的贝叶斯分类器
        • 3.2.3 基于最小错误率的贝叶斯决策的证明
        • 3.2.4 分类决策边界
      • 3.2 基于最小风险的贝叶斯决策
        • 3.2.1 为什么引入基于最小风险的贝叶斯决策?
        • 3.2.2 基于最小风险的贝叶斯决策
        • 3.2.3 决策标准
        • 3.2.4 最小风险贝叶斯决策的计算步骤

1. 贝叶斯分类器概述

1.1 贝叶斯分类器简介

1.1.1 什么是贝叶斯分类器?

  • 贝叶斯分类器是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类器

1.1.2 朴素贝叶斯分类器

  • 朴素贝叶斯分类器是贝叶斯分类器中最简单,也是最常见的一种分类方法。并且,朴素贝叶斯算法仍然是流行的十大挖掘算法之一,该算法是有监督的学习算法,解决的是分类问题。该算法的优点在于简单易懂、学习效率高、在某些领域的分类问题中能够与决策树、神经网络相媲美。
  • 但由于该算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响

2. 数学基础

2.1 概率论

2.1.1 概率

(1)联合概率

  • 设\(A,B\)是两个随机事件,A和B同时发生的概率称为联合概率,记为:\(p(A, B)\)

    如果\(A,B\)相互独立,则:\(p(A,B)=p(A)p(B)\)

(2)条件概率

  • 在B事件发生的条件下,A事件发生的概率称为条件概率,记为:$ p(A|B)$

    • \(p(A|B)=\frac{p(A,B)}{p(B)}\)
    • \(p(B|A)=\frac{p(A,B)}{p(A)}\)
    • \(p(A|B)p(B)=p(B|A)p(A)=p(A,B)\)

(3)全概率公式

  • 对于事件组

    • \(B_1,B_2,...,B_n\)两两互斥,即\(B_i \bigcap B_j=\emptyset,i\not= j,,p(Bi)\not= 0,j=1,2,...,n\),
    • \(B_1\bigcup B_2\bigcup...\bigcup B_n=\Omega\)

    则称\(B_1,B_2,...,B_n\)是样本空间\(\Omega\)的一个划分

  • A为任意事件,则:
    • \(p(A) = \sum_{i=1}^np(B_i)p(A|B_i)\)

2.1.2 贝叶斯理论

  • 假设有一批样本,\(ω_i\)分别代表不同类别,有样本特征为:\(X=<a_1,a_2,...,a_m>\),(可以理解为在\(ω_i\)类别(原因)下,有特征\(X\)(结果)):

(1)先验概率

  • 通过经验来判断事情发生的概率,对于\(ω_i\)来说其先验概率为:\(p(\omega_i)\)

(2)条件概率

  • 指当已知类别为\(ω_i\)的条件下,看到结果为样本特征为X的概率

    \(p(X|\omega_i) =\frac{p(\omega_i,X)}{p(\omega_i)}\)

(3)后验概率

  • 后验概率就是发生结果之后,即知道样本特征X,推测其类别是\(ω_i\)的概率:

    \(p(\omega_i|X) =\frac{p(X|\omega_i)p(\omega_i)}{p(X)}\)

(4)贝叶斯公式

  • \(p(\omega_i|X) =\frac{p(\omega_i)p(X|\omega_i)}{p(X)}=\frac{p(\omega_i)p(X|\omega_i)}{\sum_{i=1}^cp(\omega_i)p(X|\omega_i)}\)

先验概率,后验概率,似然估计


3. 贝叶斯决策论

3.1 贝叶斯决策

3.1.1 贝叶斯决策介绍

  • 贝叶斯决策就是利用贝叶斯理论进行决策分类,是统计机器学习的基本方法之一
  • 模式识别的问题里,我们只能够观察到一系列的特征\(x=[x1,x2,...,xn]^T\),在统计机器学习里面,对这一系列的观察值进行分类,求解概率\(P(ω_i|x)\),可以理解为在观察到特征x的前提下,观察到的现象属于ωi类的概率是多大

3.2 基于最小错误率的贝叶斯决策

3.2.1 什么时候会分错类?

  • 当某一特征向量X只为某一类物体所特有时:

    \(p(\omega_k|X)=\begin{cases}
    1 , k = i\0 , k \not= i
    \end{cases}\)

    • 对其作出决策是容易的,也不会出什么差错
  • 当某一特征向量X为不同类物体所特有时,即几种类别中均有可能出现该特征,时会有分错情况

3.2.2 基于最小错误率的贝叶斯分类器

  • 基于最小错误概率的贝叶斯决策理论就是按后验概率的大小作判决的

(1) 后验概率

若:\(p(\omega_i|X)=\max_{j=1,2}p(\omega_j|X)\),则:\(X\in \omega_i\)

(2)比较分子

  • 由2.1.2 (3)可知,当X特征一致时,其后验概率大小比较即分母的大小比较
  • 所以:若:\(p(X|\omega_i)p(\omega_i)=\max_{j=1,2}p(x|\omega_i)p(\omega_i)\),则:\(X \in \omega_i\)

(3)似然比

  • 若:\(l(x)=\frac{p(x|\omega_1)}{p(x|\omega_2)}>\frac{p(\omega_2)}{p(\omega_1)}\),则:\(X\in \omega_1\);否则:\(X\in \omega_2\)

(4)将似然比转换成负对数形式

  • 若:\(h(X)=-\ln(l(x))=-\ln(p(X|\omega_1)+\ln(p(X|\omega_2)))>\ln\frac{p(\omega_1)}{p(\omega_2)}\),则:\(X\in \omega_1\);否则:\(X\in \omega_2\)

3.2.3 基于最小错误率的贝叶斯决策的证明

(1)证明步骤

  1. 当采用最大后验概率分类器时,分类错误的概率为:

    \(p(e)=\int_{-\infty}^{+\infty}p(error,x)dx=\int_{-\infty}^{+\infty}p(error|x)p(x)dx\)

  2. 而在已知特征X的情况下,出现错误推测分类的概率为:

    \(p(error|x)=\sum_{i=1}^cp(\omega_i|x)-\max_{1\leq j \leq c }p(\omega_j|x)\)

  3. 当p(w2|x)>p(w1|x)时决策为w2,对观测值x有 p(w1|x)概率的错误率:

    \(p(e|x)=\begin{cases}
    p(x|\omega_1),当p(x|\omega_1)<p(x|\omega_2)\p(x|\omega_2),当p(x|\omega_2)<p(x|\omega_1)
    \end{cases}\)

  4. 设:
    • R_1:做出w1决策的所有观测值区域,条件错误概率为p(w2|x)
    • R_2:做出w2决策的所有观测值区域,条件错误概率为p(w1|x)。
  5. 因此平均错误率p(e)可表示成:

    \(p(e)=\int_{R_1} p(\omega_2|x)p(x)dx+\int_{R_2}p(\omega_1|x)p(x)dx\)

3.2.4 分类决策边界

(1)分类决策边界

  • 分类决策边界:$p(ω_i|x) = p(ω_j|x) $,即出现X特征,使得将该事务分类到两方的概率相同

  • 分类决策边界不一定是线性的,也不一定是连续的

(2)错误率

  • 错误率为下图中两个划线部分之和,对应的错误率区域面积为最小


3.2 基于最小风险的贝叶斯决策

3.2.1 为什么引入基于最小风险的贝叶斯决策?

  • 在最小错误贝叶斯分类器分类器中,仅考虑了样本属于每一类的后验概 率就做出了分类决策,而没有考虑每一种分类决策的风险。
  • 事实上,在许多模式识别问题中,即使样本属于两类的后验概率相同,将其分到每一类中所带来的风险也会有很大差异。

3.2.2 基于最小风险的贝叶斯决策

  • 获得样本属于每一类的后验概率后,需要综合考虑做出各种分类决策所带来的风险,选择风险最小的分类决策,称为最小风险贝叶斯分类器。
  • 贝叶斯决策论:
    • 前提:所有相关概率已知
    • 关注点:误判损失
  • 为了使风险减小,就需要移动图4中虚线的位置,要使得风险更大的那类错误分类更小,如下图所示(\(\omega_2\)的风险要大于\(\omega_1\),所以需要将决策面倾向于分类成\(\omega_2\))

3.2.3 决策标准

(1)自然状态

  • 指待识别对象的类别

    \(A=\{a_1,a_2,...,a_k\}\)

(2)状态空间

  • 由所有自然状态所组成的空间

    \(\Omega=\{\omega_1,\omega_2,...,\omega_c\}\)

(3)决策与决策空间

  • 决策:不仅包括根据观测值将样本划归为哪一类别(状态),还可包括其他决策,如"拒绝"等
  • 决策空间:由所有决策组成的空间

(4)决策风险函数λ(α,ω)

  • 指对于实际状态为\(wj\)的向量\(x\)采取决策\(a_i\)所带来的损失\(\lambda(a_i,\omega_j),i=1,...,k,j=1,...,c\)

    也写作:\(\lambda(a_i|\omega_j)\)

    • j并不一定等于c(可能包含“拒绝”等决策)

(5)期望损失(风险)

  • 在N种可能的标记种,\(λ_{ij}\)是指将\(ω_j\)误分为\(ω_i\)时所产生的损失。基于后验概率:\(P(ω_i|x)\)得到误分为\(C_i\)时所产生的期望损失,这个损失也叫做”风险“,当我们制定一个准则\(h\)使得对于每一个样本\(x\)风险最小时(此时整个样本的总体风险\(R(h*)\)(贝叶斯风险)也达到最小),称h为贝叶斯最优分类器

    \(R_i(X)=R(\omega_i|X)=\sum_{j=1}^c\lambda_j^{i}p(\omega_j|X)\)

    • \(R_i\)则表示了观测值\(x\)被判为\(i\)类时损失的均值
    • 分类则依据\(Ri,(i=1,...,c)\)中的最小值,即最小风险来定

3.2.4 最小风险贝叶斯决策的计算步骤

  • 对于一个实际问题,对于样本\(x\),最小风险贝叶斯决策的计算步骤如下:
  1. 利用贝叶斯公式计算后验概率:

    \(p(\omega_i|X) =\frac{p(\omega_i)p(X|\omega_i)}{p(X)}=\frac{p(\omega_i)p(X|\omega_i)}{\sum_{i=1}^cp(\omega_i)p(X|\omega_i)}\)

  2. 利用决策表,计算条件风险:

    \(R_i(X)=R(\omega_i|X)=\sum_{j=1}^c\lambda(a_i,\omega_j))p(\omega_j|X)\)

  3. 决策:选择风险最小的决策,即:

    \(a=\arg\min_{i=1,...,k}R(a_i|X)\)

原文地址:https://www.cnblogs.com/nishoushun/p/12600413.html

时间: 2024-11-25 16:47:07

数据挖掘-贝叶斯分类器的相关文章

机器学习之贝叶斯分类器

贝叶斯分类器(Bayesian decision theory) 贝叶斯决策论是概率框架下实施决策的基本方法,通过相关概率预先已知的情况下对误判损失来选择最优的类别分类. 将标记为cj的样本误分类成ci产生的期望损失,即样本上的“条件风险”为 贝叶斯分类的最基本的思想是:为了最小化总体风险,只需在每个样本上选择能够使条件风险R(c|x)最小的类别标记. 要想用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x),机器学习则是基于有限的训练样本集尽可能准确的估计出后验概率P(c|x).通

贝叶斯分类器

贝叶斯分类是统计学的一个分类方法,基于贝叶斯定理.首先贝叶斯分类的一个核心假设是一个属性值对给定类的影响独立于其他属性的值(类条件独立). 先来看下条件概率: 设A.B是两个事件,且P(B)>0,则称 为在事件B发生的条件下,事件A的条件概率. 再来看一下贝叶斯定理:. 其中: X 是类标识未知的数据样本(或数据元组) 如:35岁收入$4000的顾客 H 是数据样本X属于某特定类C的某种假定. 如:假设顾客将购买计算机 P(H/X):条件X下H的后验概率 如:知道顾客年龄与收入时,顾客将购买计算

神经网络与机器学习笔记——贝叶斯分类器

高斯环境下贝叶斯分类器退化为线性分类器,与感知器形式一样,但是感知器的线性特性并不是由于高斯假设而引起的. 贝叶斯分类器: 高斯分布下的贝叶斯分类器 更多关于神经网络笔记见我的专栏:神经网络与机器学习笔记

MATLAB实现贝叶斯分类器

贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类.也就是说,贝叶斯分类器是最小错误率意义上的优化,它遵循"多数占优"这一基本原则. 一.分类器的基本概念 经过了一个阶段的模式识别学习,对于模式和模式类的概念有一个基本的了解,并尝试使用MATLAB实现一些模式类的生成.而接下来如何对这些模式进行分类成为了学习的第二个重点.这就需要用到分类器. 表述模式分类器的方式有很多种,其中用的最多的是一

机器学习系列-朴素贝叶斯分类器

贝叶斯分类器 什么是贝叶斯分类器 贝叶斯分类器是一类分类器的总称,这些分类器均以贝叶斯定理为基础,故统称为贝叶斯分类器.这些分类器中最简单的是朴素贝叶斯分类器,它几乎完全按照贝叶斯定理进行分类,因此我们从朴素贝叶斯分类器说起. 贝叶斯定理: 贝叶斯定理是概率论中一个比较重要的定理,在讲解贝叶斯定理之前,首先回顾一下贝叶斯定理的基础:条件概率和全概率公式. 条件概率:设\(A,B\)是两个事件,且\(P(A)>0\),称 \[P(B|A)=\frac{P(AB)}{P(A)}\] 为在事件\(A\

模式识别(七):MATLAB实现朴素贝叶斯分类器

本系列文章由云端暮雪编辑,转载请注明出处 http://blog.csdn.net/lyunduanmuxue/article/details/20068781 多谢合作! 今天介绍一种简单高效的分类器--朴素贝叶斯分类器(Naive Bayes Classifier). 相信学过概率论的同学对贝叶斯这个名字应该不会感到陌生,因为在概率论中有一条重要的公式,就是以贝叶斯命名的,这就是"贝叶斯公式": 贝叶斯分类器就是基于这条公式发展起来的,之所以这里还加上了朴素二字,是因为该分类器对各

机器学习第5周--炼数成金-----线性分类器,Knn算法,朴素贝叶斯分类器,文本挖掘

分类:分类的意义 传统意义下的分类:生物物种预测:天气预报决策:yes or no分类的传统模型分类(判别分析)与聚类有什么差别?有监督学习,无监督学习,半监督学习 常见分类模型与算法 线性判别法距离判别法贝叶斯分类器决策树支持向量机(SVM)神经网络 文本挖掘典型场景 网页自动分类垃圾邮件判断评论自动分析通过用户访问内容判别用户喜好 网页自动分类 自动化门户系统(百度新闻,谷歌新闻等)搜索引擎根据用户标签类型推送不同类别的搜索结果 距离判别法 原理:计算待测点与各类的距离,取最短者为其所属分类

机器学习算法面试—口述(3):贝叶斯分类器

这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此算法的常见面试的问题! 贝叶斯分类器的原理其实很简单,知道了贝叶斯公式基本上就知道了贝叶斯分类器的工作原理.对于一个待分类项,求出此项出现的条件下哪个类别的概率大,就判定为哪类,仅次而已.其实贝叶斯分类器是建立在错误的理论上建立起来的分类器,没错就是错误的理论,它假定事物之间是没有联系的(马克思告诉我们,这是不可能的...),从而大大的简化了计算. 算法的过程如下: 首先核心的是贝叶斯公式:P(B

《机器学习》西瓜书第七章贝叶斯分类器

先验概率:基于已有知识对司机事件进行概率预估,但不考虑任何相关因素. 后验概率:基于已有知识对随机事件进行概率预估,并考虑相关因素P(c|X). 7.1  贝叶斯决策论 贝叶斯决策论是概率框架下实施决策的基本方法.贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记. 在样本x上的“条件风险”: 我们的任务是寻找一个判定准则h:以最小化总体风险   贝叶斯判定准则:为最小化总体风险,只需在每个样本上选择哪个能使条件风险R(c|x)最小的类别标记. h*称为贝叶斯最优分类器,与之对应的总