一起啃PRML - 1.2 Probability Theory

@copyright 转载请注明出处 http://www.cnblogs.com/chxer/

A key concept in the field of pattern recognition is that of uncertainty.

可以看出概率论在模式识别显然是非常重要的一大块。

读其他书的时候在概率这方面就也很纠结过。

我们也还是通过一个例子来理解一下Probability Theory里面一些重要的概念。

Imagine we have two boxes, one red and one blue, and in the red box we have 2 apples and 6 oranges, and in the blue box we have 3 apples and 1 orange.

绿的是苹果,黄的是橘子。

我们先假设有60%的概率选中的是蓝盒子,有40%的概率选中的是红盒子。

在讨论之前,我们还有约定一些变量:

In this example, the identity of the box that will be chosen is a random variable, which we shall denote by B. This random variable can take one of two possible values, namely r (corresponding to the red box) or b (corresponding to the blue box). Similarly, the identity of the fruit is also a random variable and will be denoted by F . It can take either of the values a (for apple) or o (for orange).

我们便有:p(B = r) = 4/10, p(B = b) = 6/10

当然了,概率一定是在[0,1]之间的数。

如果我们必须要在红色和蓝色之间做出一个选择的话,那么很显然所有的p加起来是1,这就好像把一张大饼吃完一样。

接下来我们可能就会问许许多多关于概率的问题了,当然,在此之前,我们还要学习两个工具,那就是著名的the sum rule and the product rule.

我们再来看一个例子:

这个例子就告诉我们了怎么证加法原理乘法原理

当然了证明过程无非就是推导整理

于是我们终于得到了:

这里p(X,Y)是联合概率,可以表述为“X且Y的概率”。类似地,p(Y |X)是条件概率,可以表述为“给定X的条件下Y 的概率”,p(X)是边缘概率,可以简单地表述为“X的概率”。这两个简单的规则组成了我们在全书中使用的全部概率推导的基础。

根据乘积规则,以及对称性p(X, Y) = p(Y, X),我们立即得到了下面的两个条件概率之间的关系:

就是把两个联合概率用乘法原理展开。

最后,如果两个变量的联合分布可以分解成两个边缘分布的乘积,即p(X, Y) = p(X )p(Y), 那么我们说X和Y 相互独立(independent)。根据乘积规则,我们可以得到p(Y | X) = p(Y), 因此对于给定X的条件下的Y 的条件分布实际上独立于X的值。例如,在我们的水果盒子的例子中,如果每个盒子包含同样比例的苹果和橘子,那么p(F | B) = P (F),从而选择苹果的概率就 与选择了哪个盒子无关。

时间: 2024-12-29 15:59:08

一起啃PRML - 1.2 Probability Theory的相关文章

CCJ PRML Study Note - Chapter 1.2 : Probability Theory

Chapter 1.2 : Probability Theory Chapter 1.2 : Probability Theory Christopher M. Bishop, PRML, Chapter 1 Introdcution Chapter 1.2 : Probability Theory 1. Uncertainty 2. Example discussed through this chapter 3. Basic Terminology 3.1 Probability densi

Codeforces Round #594 (Div. 2) C. Ivan the Fool and the Probability Theory

题目原址:C. Ivan the Fool and the Probability Theory 题意:n×m的网格中填黑白格,最多有两个相邻,共用一条边为相邻,有几种填法. 思路:这题比赛写自闭了,一直觉得自己的思路没错,然后就残酷打脸,超级难受的那种. 从不能有3个及以上相邻可以得出,只要有两个相邻的就能确定全部的分布,那就变成了求一行的方法数量,再减去黑白相间的两种,而剩下就是黑白相间两种情况时有多少种了. 一行的求法:dp[ i ] [ 0 ]表示在第 i 个格子里放白色的放法有多少,d

【PRML读书笔记-Chapter1-Introduction】1.2 Probability Theory

一个例子: 两个盒子: 一个红色:2个苹果,6个橘子; 一个蓝色:3个苹果,1个橘子; 如下图: 现在假设随机选取1个盒子,从中.取一个水果,观察它是属于哪一种水果之后,我们把它从原来的盒子中替换掉.重复多次. 假设我们40%的概率选到红盒子,60%的概率选到蓝盒子.并且当我们把取出的水果拿掉时,选择盒子中任何一个水果还是等可能的. 问题: 1.整个过程中,取得苹果的概率有多大? 2.假设已经去的了一个橘子的情况下,这个橘子来自蓝盒子的可能性有多大? (这里,推荐一篇好文:数学之美番外篇:平凡而

一起啃PRML - 1.2.1 Probability densities

@copyright 转载请注明出处 http://www.cnblogs.com/chxer/ 我们之前一直在讨论“谁取到什么”这样的概率问题,现在我们不妨来研究“谁取到哪个范围内”这样的概率问题. x位于区间(a, b)的概率由下式给出: 由于概率是非负的,并且x的值一定位于实数轴上得某个位置,因此概率密度一定满足下面两个条件: 位于区间(−∞, z)的x的概率由累积分布函数(cumulative distribution function)给出.定义为: 累积分布函数与概率密度函数的关系:

CS281: Advanced Machine Learning 第二节 probability theory 概率论

概率论基本概念 离散变量 概率论中的两个基本法则:加法法则和乘法法则,加法法则定义了随机变量X与条件变量Y之间的直接联系.乘法法则定义了概率学中最重要的条件概率,同时也可以叫做联合概率,因为它描述了事件X和Y同时发生的概率. 通过上面公式可以推到出条件概率公式: 进而可以得到著名的贝叶斯公式,贝叶斯公式广泛的应用于科学界,这也被称为后验概率,因为它在咱们知道了p(Y=y)这个先验概率之后才能计算出来. 如果两个随机变量x,y满足以下公式,那么说明他们是互相独立的: 如果三个随机变量x,y,z满足

[PR & ML 3] [Introduction] Probability Theory

虽然学过Machine Learning和Probability今天看着一part的时候还是感觉挺有趣,听惊呆的,尤其是Bayesian Approach.奇怪发中文的笔记就很多人看,英文就没有了,其实我觉得英文的写得更好呀...囧...一边看一边写一边实现,好慢,求同道中人啊...

概率论基础知识(Probability Theory)

概率(Probability):事件发生的可能性的数值度量. 组合(Combination):从n项中选取r项的组合数,不考虑排列顺序.组合计数法则:. 排列(Permutation):从n项中选取r项的组合数,考虑排列顺序.排列计数法则:. 贝叶斯定理(Bayes's Theorem):获取新信息后对概率进行修正的一种方法.先验概率--->新信息--->应用贝叶斯定理--->后验概率.具体请见:贝叶斯定理推导(Bayes's Theorem). 离散型概率分布(Discrete Pro

P1-概率论基础(Primer on Probability Theory)

2.1概率密度函数 2.1.1定义 设p(x)为随机变量x在区间[a,b]的概率密度函数,p(x)是一个非负函数,且满足 注意概率与概率密度函数的区别. 概率是在概率密度函数下对应区域的面积,如上图右所示,其公式如下 我们用概率密度函数来表示在区间[a,b]中所有可能的状态x的可能性. 条件概率密度函数,设p(x|y)是在条件y属于[r,s]下x(x属于[a,b])的概率密度函数,有 N维连续随机变量的联合概率密度函数记为p(X),其中X=(x1,...,xn),xi属于[ai,bi],有时我们

一起啃PRML - 1.2.2 Expectations and covariances 期望和协方差

@copyright 转载请注明出处 http://www.cnblogs.com/chxer/ 涉及到概率的一个重要的操作是寻找函数的加权平均值.在概率分布p(x)下,函数f(x)的平均值被称为f(x)的期望(expectation),记作E[f].对于一个离散变量,它的定义为: 因此平均值根据x的不同值的相对概率加权.在连续变量的情形下,期望以对应的概率密度的积分的形式表示: 类似的,我们有“条件期望”.无非就是把边缘概率变成条件概率. 在连续变量的情况下,我们把求和改成积分就好了. 如果我