《机器学习》西瓜书第七章贝叶斯分类器

先验概率:基于已有知识对司机事件进行概率预估,但不考虑任何相关因素。

后验概率:基于已有知识对随机事件进行概率预估,并考虑相关因素P(c|X)。

7.1  贝叶斯决策论

贝叶斯决策论是概率框架下实施决策的基本方法。贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。

在样本x上的“条件风险”:

我们的任务是寻找一个判定准则h:以最小化总体风险  

贝叶斯判定准则:为最小化总体风险,只需在每个样本上选择哪个能使条件风险R(c|x)最小的类别标记。

h*称为贝叶斯最优分类器,与之对应的总体风险R(h*)称为贝叶斯风险。1-R(h*)反映了分类器所能达到的最好性能。

最小化分类错误率的贝叶斯最优分类器为 即对每个样本x,选择能使后验概率P(c|x)最大的类别标记。

机器学习所要实现的是基于有限的训练样本尽可能准确地估计出后验概率P(c|x).大体来说,主要有两种策略:给定x,可通过直接建模P(c|x)来预测c,这样的得到的是“判别式模型”;也可以先对联合概率分布P(x,c)建模,然后再由此获得P(c|x),这样的得到的是“生成式模型”。决策树、BP神经网络、支持向量机等为判别式模型。

对生成式模型有,基于贝叶斯定理,P(c|x)可写为

类先验概率P(c)表达了样本空间中各类样本所占的比例,根据大数定律,当训练机包含足够多的独立同分布样本是,P(c)可通过各类样本出现的频率来进行估计。

7.2  极大似然估计

估计类条件概率:先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计。概率模型的训练过程就是参数估计过程。

统计学里的两个学派:频率学派和贝叶斯学派

频率学派:强调概率的“客观性”,概率为客观随机性。模型参数固定,样本随机。认为观察者获得的信息是一样的。认为应该将事件在重复试验中发生的频率作为其发生的概率的估计。认为参数虽然未知,但却是客观存在的确定值,可通过优化似然函数等准则来确定参数值;

贝叶斯学派:强调概率的主观性,即条件概率。样本固定,模型参数视为关键。认为不同的观察者获得的信息是不一样的。认为事情发生概率的客观性仅仅是因为观察者不知道事件的结果。随机性的根源不在于事件,而在于观察者对事件的知识状态。而频率学派则认为随机性的根源就是事件,跟观察者无关。认为参数是未观察到的随机变量,其本身也可以有分布,因此可假定参数服从一个先验分布,然后基于观测到的数据来计算参数的后验分布。

极大似然估计---------频率主义学派

Dc----训练集D中第c类样本组成的集合,假设这些样本独立同分布,则参数θc对数据集Dc的似然是:,对数似然:

例如在连续情形下,假设概率密度函数则参数的极大似然估计为:

也就是说,通过极大似然得到的正态分布均值就是样本均值,方差就是的均值。

7.3  朴素贝叶斯分类器

朴素:属性条件独立

类条件概率P(c|x)是所有属性上的联合概率,难以从有限的训练样本中直接估计而得。

原文地址:https://www.cnblogs.com/ttzz/p/11583740.html

时间: 2024-11-06 19:28:27

《机器学习》西瓜书第七章贝叶斯分类器的相关文章

【基础知识七】贝叶斯分类器

理解贝叶斯公式: 其中 为完备事件组,即 Think Bayes - 我所理解的贝叶斯定理 解决的问题:由A的先验概率.B的后验概率(也叫条件概率)求A的后验概率. 如果 A 和 B 是相互独立的两个事件,那么: 上面的推导过程反过来证明了如果 A 和 B 是相互独立的事件,那么事件 A 发生的概率与 B 无关.

机器学习之贝叶斯分类器

贝叶斯分类器(Bayesian decision theory) 贝叶斯决策论是概率框架下实施决策的基本方法,通过相关概率预先已知的情况下对误判损失来选择最优的类别分类. 将标记为cj的样本误分类成ci产生的期望损失,即样本上的“条件风险”为 贝叶斯分类的最基本的思想是:为了最小化总体风险,只需在每个样本上选择能够使条件风险R(c|x)最小的类别标记. 要想用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x),机器学习则是基于有限的训练样本集尽可能准确的估计出后验概率P(c|x).通

神经网络与机器学习笔记——贝叶斯分类器

高斯环境下贝叶斯分类器退化为线性分类器,与感知器形式一样,但是感知器的线性特性并不是由于高斯假设而引起的. 贝叶斯分类器: 高斯分布下的贝叶斯分类器 更多关于神经网络笔记见我的专栏:神经网络与机器学习笔记

机器学习系列-朴素贝叶斯分类器

贝叶斯分类器 什么是贝叶斯分类器 贝叶斯分类器是一类分类器的总称,这些分类器均以贝叶斯定理为基础,故统称为贝叶斯分类器.这些分类器中最简单的是朴素贝叶斯分类器,它几乎完全按照贝叶斯定理进行分类,因此我们从朴素贝叶斯分类器说起. 贝叶斯定理: 贝叶斯定理是概率论中一个比较重要的定理,在讲解贝叶斯定理之前,首先回顾一下贝叶斯定理的基础:条件概率和全概率公式. 条件概率:设\(A,B\)是两个事件,且\(P(A)>0\),称 \[P(B|A)=\frac{P(AB)}{P(A)}\] 为在事件\(A\

数据挖掘-贝叶斯分类器

数据挖掘-贝叶斯分类 目录 数据挖掘-贝叶斯分类 1. 贝叶斯分类器概述 1.1 贝叶斯分类器简介 1.1.1 什么是贝叶斯分类器? 1.1.2 朴素贝叶斯分类器 2. 数学基础 2.1 概率论 2.1.1 概率 2.1.2 贝叶斯理论 3. 贝叶斯决策论 3.1 贝叶斯决策 3.1.1 贝叶斯决策介绍 3.2 基于最小错误率的贝叶斯决策 3.2.1 什么时候会分错类? 3.2.2 基于最小错误率的贝叶斯分类器 3.2.3 基于最小错误率的贝叶斯决策的证明 3.2.4 分类决策边界 3.2 基于

贝叶斯分类器

贝叶斯分类是统计学的一个分类方法,基于贝叶斯定理.首先贝叶斯分类的一个核心假设是一个属性值对给定类的影响独立于其他属性的值(类条件独立). 先来看下条件概率: 设A.B是两个事件,且P(B)>0,则称 为在事件B发生的条件下,事件A的条件概率. 再来看一下贝叶斯定理:. 其中: X 是类标识未知的数据样本(或数据元组) 如:35岁收入$4000的顾客 H 是数据样本X属于某特定类C的某种假定. 如:假设顾客将购买计算机 P(H/X):条件X下H的后验概率 如:知道顾客年龄与收入时,顾客将购买计算

MATLAB实现贝叶斯分类器

贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类.也就是说,贝叶斯分类器是最小错误率意义上的优化,它遵循"多数占优"这一基本原则. 一.分类器的基本概念 经过了一个阶段的模式识别学习,对于模式和模式类的概念有一个基本的了解,并尝试使用MATLAB实现一些模式类的生成.而接下来如何对这些模式进行分类成为了学习的第二个重点.这就需要用到分类器. 表述模式分类器的方式有很多种,其中用的最多的是一

机器学习基础——带你实战朴素贝叶斯模型文本分类

本文始发于个人公众号:TechFlow 上一篇文章当中我们介绍了朴素贝叶斯模型的基本原理. 朴素贝叶斯的核心本质是假设样本当中的变量服从某个分布,从而利用条件概率计算出样本属于某个类别的概率.一般来说一个样本往往会含有许多特征,这些特征之间很有可能是有相关性的.为了简化模型,朴素贝叶斯模型假设这些变量是独立的.这样我们就可以很简单地计算出样本的概率. 想要回顾其中细节的同学,可以点击链接回到之前的文章: 机器学习基础--让你一文学会朴素贝叶斯模型 在我们学习算法的过程中,如果只看模型的原理以及理

机器学习第5周--炼数成金-----线性分类器,Knn算法,朴素贝叶斯分类器,文本挖掘

分类:分类的意义 传统意义下的分类:生物物种预测:天气预报决策:yes or no分类的传统模型分类(判别分析)与聚类有什么差别?有监督学习,无监督学习,半监督学习 常见分类模型与算法 线性判别法距离判别法贝叶斯分类器决策树支持向量机(SVM)神经网络 文本挖掘典型场景 网页自动分类垃圾邮件判断评论自动分析通过用户访问内容判别用户喜好 网页自动分类 自动化门户系统(百度新闻,谷歌新闻等)搜索引擎根据用户标签类型推送不同类别的搜索结果 距离判别法 原理:计算待测点与各类的距离,取最短者为其所属分类