贝叶斯定理学习



通常事件A在事件B的条件下的概率,与事件B在事件A的条件下的概率是不一样的,但是这两者是有确定的关系,这就是贝叶斯定理。

P(A|B)=P(B|A)*P(A)/P(B)

先看一个例子:

现分别有 A,B 两个容器,在容器 A 里分别有 6 个红球和 4 个白球,在容器 B 里有 2 个红球和 8 个白球,现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器 A 的概率是多少?

先不考虑贝叶斯定理,直接分析这道题,总共有8个红球,其中6个在容器A,所以任意抽出一个球是红球来自A的概率就是

6/8=0.625

那么用贝叶斯定理来验证一下是不是0.625呢?

假设已经抽出红球事件为B,从容器A抽出球事件为A,所以符合题目要求的条件概率就是P(A|B).

根据定理P(A|B)=P(B|A)*P(A)/P(B),所以要求出P(B|A)和P(A)以及P(B).

P(A)=1/2,因为共两个容器,所以有1/2的几率。

P(B)=8/20,因为共20个球,其中8个红球。

P(B|A)=6/10,因为容器A里面有6个红球,共10个球。

因此(A|B)=P(B|A)*P(A)/P(B) = 6/10 * 1/2 /8/20 = 3/10 * 20/8 = 6/8 = 0.625

结果完全跟前面的算出来的一样。

很简单的问题为什么用贝叶斯定理这么复杂呢?这也说明了,贝叶斯定理是一个通用的定理,只要是条件概率,都可以使用贝叶斯定理来解,再看一个有趣的例子。

一座别墅在过去的 20 年里一共发生过 2 次被盗,别墅的主人有一条狗,狗平均每周晚上叫 3 次,在盗贼入侵时狗叫的概率被估计为 0.9,问题是:在狗叫的时候发生入侵的概率是多少?

这怎么解?好像不能直接得出答案。好,那就使用贝叶斯公式来解。

假设狗叫的事件为B,盗贼入侵事件为A,则题目问题就转化为求P(A|B),

P(A|B)=P(B|A)*P(A)/P(B)

由题目可知:

P(A)=2/(20*365),因为20年里面发生了两次被盗。

P(B)=3/7,因为狗平均每周晚上叫3次。

P(B|A)=0.9,题目给出的。

P(A|B) = 0.9 * 2 / (20 *365) / (3/7) = 0.00058

时间: 2024-10-13 08:28:57

贝叶斯定理学习的相关文章

Monty Hall 问题与贝叶斯定理的理解

 三门问题(Monty Hall problem),是一个源自博弈论的数学游戏问题,大致出自美国的电视游戏节目Let's Make a Deal.问题的名字来自该节目的主持人蒙提·霍尔(Monty Hall). 游戏规则 游戏参赛者会看见三扇关闭了的门,其中一扇的后面有一辆汽车,选中后面有车的那扇门就可以赢得该汽车,而另外两扇门后面则各藏有一只山羊.当参赛者选定了一扇门,但未去开启它的时候,节目主持人会开启剩下两扇门的其中一扇,露出其中一只山羊.主持人其后会问参赛者要不要换另一扇仍然关上的门.问

深度学习深入浅出:受限玻尔兹曼机RBM(一)基本概念

技术交流QQ群:433250724,欢迎对算法.技术.应用感兴趣的同学加入. 最近在复习经典机器学习算法的同时,也仔细看了一些深度学习的典型算法.深度学习是机器学习的"新浪潮",它的成功主要得益于深度"神经网络模型"的优异效果.这个小系列打算深入浅出地记录一下深度学习中常用的一些算法.第一篇先写一下"受限玻尔兹曼机"RBM,会分若干个小段写,这是第一段,关于RBM的基本概念. 网上有很多关于RBM的介绍,但是很多写的比较简略,跳过了很多细节,本文

从决策树学习谈到贝叶斯分类算法、EM、HMM

从决策树学习谈到贝叶斯分类算法.EM.HMM 引言 近期在面试中,除了基础 &  算法 & 项目之外,经常被问到或被要求介绍和描写叙述下自己所知道的几种分类或聚类算法(当然,这全然不代表你将来的面试中会遇到此类问题,仅仅是由于我的简历上写了句:熟悉常见的聚类 & 分类算法而已),而我向来恨对一个东西仅仅知其皮毛而不得深入,故写一个有关数据挖掘十大算法的系列文章以作为自己备试之用,甚至以备将来经常回想思考.行文杂乱,但侥幸若能对读者起到一点帮助,则幸甚至哉. 本文借鉴和參考了两本书,

斯坦福《机器学习》Lesson5感想———1、成学习算法

在前面几课里的学习算法的思路都是给定数据集以后.确定基于此数据集的最佳如果H函数,通过学习算法确定最佳如果H的各个參数,然后通过最佳如果函数H得出新的数据集的结果.在这一课里介绍了一种新的思路,它的核心思想是直接计算各种如果的最高概率,然后拟合各个如果的最高概率參数,并利用拟合得到的如果概率,计算出新的数据集的概率,选取概率最高的如果直接得出分类类别. 整个生成学习算法的精髓在于条件概率的使用.在二元分类里,也能够称为分别算法.在给定的数据集里确定p(y) 和p(x|y),然后根据贝叶斯定理.得

PGM学习之七 MRF,马尔科夫随机场

之前自己做实验也用过MRF(Markov Random Filed,马尔科夫随机场),基本原理理解,但是很多细节的地方都不求甚解.恰好趁学习PGM的时间,整理一下在机器视觉与图像分析领域的MRF的相关知识. 打字不易,转载请注明.http://blog.csdn.net/polly_yang/article/details/9716591 在机器视觉领域,一个图像分析问题通常被定义为建模问题,图像分析的过程就是从计算的观点来求解模型的过程.一个模型除了可以表达成图形的形式外,通常使用一个目标函数

PGM学习之三 朴素贝叶斯分类器(Naive Bayes Classifier)

介绍朴素贝叶斯分类器的文章已经很多了.本文的目的是通过基本概念和微小实例的复述,巩固对于朴素贝叶斯分类器的理解. 一 朴素贝叶斯分类器基础回顾 朴素贝叶斯分类器基于贝叶斯定义,特别适用于输入数据维数较高的情况.虽然朴素贝叶斯分类器很简单,但是它确经常比一些复杂的方法表现还好. 为了简单阐述贝叶斯分类的基本原理,我们使用上图所示的例子来说明.作为先验,我们知道一个球要么是红球要么是绿球.我们的任务是当有新的输入(New Cases)时,我们给出新输入的物体的类别(红或者绿).这是贝叶斯分类器的典型

scikit-learn学习之贝叶斯分类算法

版权声明:<-- 用心写好你的每一篇文章,转载请注明出处@http://blog.csdn.net/gamer_gyt <-- 目录(?)[+] ====================================================================== 本系列博客主要参考 Scikit-Learn 官方网站上的每一个算法进行,并进行部分翻译,如有错误,请大家指正 转载请注明出处,谢谢 ======================================

概率--学习朴素贝叶斯分布

概率是一种基于事件发生可能性来描述未来趋势的数学工具.其本质就是通过过去已经发生的事情来推断未来事件,并且将这种推断放在一系列的公理化的数学空间当中进行考虑.例如,抛一枚均质硬币,正面向上的可能性多大?概率值是一个0-1之间的数字,用来衡量一个事件发生可能性的大小.概率值越接近于1,事件发生的可能性越大,概率值越接近于0,事件越不可能发生.天气预报员通常会使用像"明天80%的可能性会下雨"这样的术语来对降雨进行预测,这里70%或者0.7就是下雨的概率.在现实生活中,要么下雨,要么不下雨

数据挖掘-贝叶斯定理

贝叶斯定理是统计学的一种分类的方法 最简单的贝叶斯分类方法称为朴素贝叶斯分类的方法 朴素贝叶斯法的一个重要条件是即一个属性值对分类的影响独立于其他属性值  也称为类条件独立性 p(H|X)=p(X|H)P(H)/P(X)    其中已经知道后者求前者,.即是后验=似然X先验/证据因子 朴素贝叶斯方法易于实现 ,而且在大多数的情况下能够获得较好的分类准确率.它的劣势在于它的条件独立性假设,如果数据之间各个属性之间有比较强的依赖关系,则不会取得好的结果. 如何处理属性之间的依赖关系呢?引入了贝叶斯信