贝叶斯公式的直观理解(先验概率/后验概率)

博客转自:https://www.cnblogs.com/yemanxiaozu/p/7680761.html

前言

  以前在许学习贝叶斯方法的时候一直不得要领,什么先验概率,什么后验概率,完全是跟想象脱节的东西,今天在听喜马拉雅的音频的时候突然领悟到,贝叶斯老人家当时想到这么一种理论前提可能也是基于一种人的直觉.

先验概率:是   指根据  以往经验  和分析  得到的概率.[1]

  意思是说我们人有一个常识,比如骰子,我们都知道概率是1/6,而且无数次重复实验也表明是这个数,这是一种我们人的常识,也是我们在不知道任何情况下必然会说出的一个值.而所谓的先验概率是我们人在未知条件下对事件发生可能性猜测的数学表示!*

后验概率:事情A已经发生,要求 》》这件事情A发生  是  由某个因素 B 引起的可能性的大小[1]

举个栗子

  首先我想问一个问题,桌子上如果有一块肉喝一瓶醋,你如果吃了一块肉,然后你觉得是酸的,那你觉得肉里加了醋的概率有多大?你说:80%可能性加了醋.OK,你已经进行了一次后验概率的猜测.没错,就这么简单.

思考思考在思考:

  先验概率在这个公式中有没有发生:P(A)--就是先验概率

  P(B|A) 就是类条件概率

  全概公式:【P(A)=P(B1)P(A/B1)+P(B2)P(A/B2)】

  我们把事件A看作结果,把事件B1,B2...看作导致这个结果的可能的‘原因’,则可以形象的把全概公式

  看作:由原因推结果。

  贝叶斯公式:

  作用于由结果推原因;在‘结果A’已经发生,导致‘结果A’发生的各个原因的概率

原文地址:https://www.cnblogs.com/yunshenbuzhichu/p/9697223.html

时间: 2024-08-03 10:41:30

贝叶斯公式的直观理解(先验概率/后验概率)的相关文章

机器学习基础系列--先验概率 后验概率 似然函数 最大似然估计(MLE) 最大后验概率(MAE) 以及贝叶斯公式的理解

目录 机器学习基础 1. 概率和统计 2. 先验概率 3. 后验概率 4. 似然函数 5. 有趣的野史--贝叶斯和似然之争-最大似然概率(MLE)-最大后验概率(MAE)-贝叶斯公式 总结:先验概率 后验概率以及似然函数的关系 机器学习基础 1. 概率和统计 概率(probabilty)和统计(statistics)看似两个相近的概念,其实研究的问题刚好相反. 顾名思义: 概率研究的问题是,已知一个模型和参数,怎么去预测这个模型产生的结果的特性(例如均值,方差,协方差等等). 统计研究的问题则相

深度学习与计算机视觉系列(5)_反向传播与它的直观理解

作者:寒小阳 && 龙心尘 时间:2015年12月. 出处:http://blog.csdn.net/han_xiaoyang/article/details/50321873 声明:版权所有,转载请联系作者并注明出处 1. 引言 其实一开始要讲这部分内容,我是拒绝的,原因是我觉得有一种写高数课总结的感觉.而一般直观上理解反向传播算法就是求导的一个链式法则而已.但是偏偏理解这部分和其中的细节对于神经网络的设计和调整优化又是有用的,所以硬着头皮写写吧. 问题描述与动机: 大家都知道的,其实我

机器学习中正则化项L1和L2的直观理解

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作?1-norm和?2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数. L1正则化和L2正则化可以看做是损失函数的惩罚项.对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归).下图是Python中Lasso回归的损失函数,式中加号后面一项α||w||1即为L1正则化项. 下图是Python中Ri

关于梯度、旋度和散度的直观理解

转载的,这很现实很直接,建议吃饭的时候别看.... 散度为零,说明是无源场:散度不为零时,则说明是有源场(有正源或负源) 若你的场是一个流速场,则该场的散度是该流体在某一点单位时间流出单位体积的净流量. 如果在某点,某场的散度不为零,表示该场在该点有源,例如若电场在某点散度不为零,表示该点有电荷,若流速场不为零,表是在该点有流体源源不绝地产生或消失(若散度为负). 一个场在某处,沿着一无穷小的平面边界做环积分,平面法向量即由旋度向量给定,旋度向量的长度则是单位面积的环积分值.基本上旋度要衡量的是

后缀自动机的直观理解

后缀自动机(SAM) 搜了网上,多介绍应用,[3]算是一个比严格的定义性描述,并给出了证明.但是这个证明我并未看懂,下面综合一些资料给一些个人的直观但不失严谨的理解. 给定一个串A的后缀自动机是一个有限状态自动机(DFA),它能够且仅能够接受A的后缀,并且我们要求它的状态数最少. 设n=|A|, 状态数:st=[n+1,2n-1], 边数:eg=[n,3n-4].构造:空间复杂度:26*st, 时间复杂度O(3n).查询:O(|q|); 可以看出,我们有可能把26*st优化到3*st的. 先上图

信息熵的直观理解

在机器学习算法(如二叉树).特征选择(互信息)中经常用到熵的概念,信息熵的概念以及介绍网上有很多,这里主要做一个直观的介绍. 1. 信息的度量 2. 信息熵 一. 信息量 常常把消息中有意义的内容成为信息.我们常常说,某人说的某句话信息量很大,具体在信息论中,其实指的是他说的这句话消除的不确定性多.信息的度量定义为消除不确定性的多少.(信息是用来消除不确定性的东西--Shannon) 信息量函数: $I=-\ln p_{i}$ 其中,$p_{i}$是事件$x_{i}$发生的概率($x_{i} \

模拟CMOS集成电路-单级放大器增益直观理解

我们再看辅助定理: 这里,Gm是指输出与地短接时的跨导:Rout表示当输入电压为零时的输出电阻.这个是书上的原话,但是在推算公式时发现,这两个量的定义还不是完全完整,我 的理解是: 首先Gm是等效跨导,牢记其定义为: 也就是说,我们在计算等效跨导的时候,直观地,要看输出电流的变化引起的输入电压的变化. 而Rout应该为交流电阻,最初的定义为: 也就是说,在计算交流输出电阻时,应该明确输出电压变化和输出电流变化的关系. 另外,戴维南等效方法贯穿在增益计算过程中,因此理清了这些关系,增益的计算就只涉

如何更直观理解进程、线程、事务的概念

开门见山:我对进程.线程.事务的理解是,它们都是一个执行者.虽然在java的api里面定义了Executor类,不过我们现在谈论的执行者的概念与java语言没有关系,注意区分不要混淆. 在现代操作系统中,进程的概念特别重要,各种操作系统教材都会花不少笔墨来讲解这个概念,然而书中的定义往往很不直观甚至冗长,它们时常给出这样的描述,“操作系统资源调度的基本单位”,我不是说这样的描述有错,而是说这样的描述不直观,如果我们这样来描述:“进程是一个执行者,它负责执行被代码定义了的过程”,或者更简洁的表述为

代价函数的直观理解

通过对代价函数的理解,了解了以下几个点: 1.单变量线性回归:h(x)=&+kx 2.参数:hypothesis 3.代价函数 4.建模误差 这个就是单变量线性回归的h(x),还有代价函数转换后与建模误差的直观体现,在途中我们也看到了函数的最低点也就是代价函数中的J(x)的最小值,直观体现在这两个坐标系上. 当然,由于在这些离散的采样点中,由于有些环境的限制,所以我们不能够人工的去采样,无法用图像的方式来解决,所以我们加入更多的算法来指导计算机进行计算和预测. 原文地址:https://www.