概率随记(1)

1、古典概型:
      特点:每个样本点的概率相等,P1=1/n,每次试验只有一个样本点发生。
      事件A概率P(A)=A包含的基本事件数/总的基本事件数。
      经典例子:每个球落入每个格子的概率相等,每个格子可以落入任意个球。k个球落入n个格子的概率:
      A)基本事件总数:1个球可以落入到任和格子,有l种可能,k个球就有n*n*n*...*n=n^k种基本事件。
      B)落入指定K个格子的事件数:每个格子落一个,k个球的全排列,包含的基本事件数=k!;
      C ) 落入k个格子的事件数:没有指定k个格子,则k个格子的选取方案有C(n,k).结合B有基本事件数=C(n,k)*k!
2、几何概型:
      特点:样本空间是一个可度量的区域(体积,面积,长度等),任意一点落在度量相同的子区域内的概率相等。事件A的概率P(A)=S(A)/S.
      古典概型可以看做是几何概型的一种特例:将几何样本空间分成n个度量相等,并互不包含的子区域。同时每次试验只有一个子区域(样本点)发生。
      几何概型没有强调每次试验只有一个样本点发生,主要是因为几何概型定义的是区域,已无样本点的概念。
      古典概型可以理解为在点上的概率。由点成线,由线成面,由面成空间,形成几何概型。
      几何概型的计算最终映射到可度量区域大小的比较。函数积分是其主要解法;
      推广:如果在度量区域上相同子区域发生的概率不相等,而是度量区域上的一个函数,则可以利用曲线(弧长积分),曲面积分来计算(都有在区域上的可加性)。

3)条件概型:
      古典概型和几何概型都是研究单个事件发生的概率。如果事件之间有关联,则需要用到条件概率:
      P(A/B)=P(AB)/P(B) 表示事件B发生的情况下事件A发生的概率(条件概率)。

4)概率的乘法公式:
      P(AB)=P(A)P(B/A)=P(B)P(A/B).推广到n个事件P(A1A2A3...An)=P(A1)P(A2/A1)P(A3/A1A2)***P(An/A1A2...An-1).
5) 全概率公式:
     如果样本空间Ω=B1 ∪B2 ∪ ...∪ Bn,且Bi∩Bj=?(i≠j,i,j=1,2,3...n),且P(Bi)>0(i=1,2,...n),则称B1,B2,...,Bn是样本空间的一个划分。
      P(A)=Σ(P(Bi)P(A/Bi) (i=1...n)
      要求P(Bi)>0主要是计算中分母不能为0.在实际研究中,如果P(Bi)=0,则Bi可以去掉(不考虑)
      全概率公式表示:整体概率等于部分概率之和。如果时间A的整体概率不好求,则可以通过求A在部分(划分)发生的概率的和来实现。
6)贝叶斯公式:
      B1,B2,...,Bn是样本空间的一个划分.
      P(Bi/A)=P(ABi)/P(A)=P(Bi)P(A/Bi) / (Σ(P(Bi)P(A/Bi)).
      贝叶斯公式很容易通过全概率公式和乘法公式推导出来。
      P(Bi|A)又称后验概率。P(Bi)为先验概率。
      在全概率公式中可以如此理解:Ω的一个划分B1,B2,..,Bn中的Bi是事件A发生的一个原因,要求事件A的概率,可以通过每种原因下A发生的概率之和来计算。这也是划分的基本原则。
7)独立事件:P(AB)=P(A)P(B).
       相互独立和两两相互独立是不一样的概念,两两独立之要求Ai和Ak独立。相互独立除了要求两两相互独立,还要求从n个中任取k个形成的划分也两两独立。
       两两独立只需要C(n,2)个等式成立,而相互独立则需要C(n,2)+C(n,3)+...+C(n,n)个等式成立。

8) n重伯努利试验的概率计算:
      P(Ak)=C(n,k)*p^k * (1-p)^(n-k).
      从n次试验中取k次试验,总共有C(n,k)种方式,满足A出现k次的概率就等于k次试验都为A且另外n-k次都为-A的概率Q=p^k * (1-P)^(n-k) (A和-A互相独立).从而得到P(Ak)=C(n,k)*Q.另外我们也可以这样理解:我们可以把n次试验划分为k次试验R和n-k次试验S。显然这种划分有C(n,k)种。k次试验R都为A的概率显然为p^k,但由于我们需要保证整个n次试验A出现k次,那么显然k次试验部分都为A的情况下,需要保证试验S部分不出现A。S不出现A的概率当然是(1-p)^(n-k).RS就为n次试验出现k次A的概率,再乘以C(n,k)种划分方式,就是P(Ak)了。
      这里其实隐含了一个条件:n重试验是有顺序的。

9)随机变量:
     虽然我们可以确定随机试验的结果范围,但无法预先确定随机试验的结果,因此我们研究随机试验中每种结果的概率,从而达到对事物的某种可能性做预测。概率是研究事物的不确定性的。为了便于研究这些事物的不确定性,我们需要利用数学来表达这种不确定性(建模),在建立随机试验和数学上的某种映射后,我们就可以利用数学工具来对问题进行更为深刻的刻画,并实现数学上的运算。如何映射呢?我们知道,在样本空间中,每个基本事件w有确定的一种结果t,这实际上就建立起了w到结果t的映射,如果t本身是定量的实数,我们就可以将将这种映射本身作为变量x。但如果t是定性的描述,则无法形成定量描述。这时我们需要将 t映射到实数上来,以便我们在实数R域上进行研究(映射到实数域R不是唯一的选项),对每个t,我们用一个实数x来对应,就建立起t到实数x的函数映射:x=f(t),比如抛硬币事件中,基本事件只有向上和向下两种,我们用变量x=0来表达w向上,x=1来表达w向下,实数0和1就代表抛硬币试验的基本事件(结果),从而将求基本事件的概率转换为P=P(X=x),x=0,1.就建立了方便的数学表达式。再如掷骰子,结果为1,2,3,4,5,6.我们用变量x来表示结果。则求抛骰子结果的概率就转换成了P=P(X=x),x=1,2,3,4,5,6.
     一句话:随机变量 X就是随机试验基本事件到实域R的映射(函数)(w->R)。注意:这种映射不是唯一的,实际上一个随机试验的随机变量也同样不是唯一的。
    随机变量是函数,这是与一般变量不太一样的地方。
    这里隐掉了X(w)是可测函数的要求。一般情况下是没问题的。
    随机变量之所以重要,也是概率的基本概念,就是因为随机变量是随机试验数学化的第一步。建立了随机变量,就建立起了随机试验的数学表达。

时间: 2024-10-22 19:05:30

概率随记(1)的相关文章

概率随记(2)

?? ?? 1)随机变量的分布函数:F(x)=P{X<=x}   - ?? ∞<x<+∞.表示随机变量X小于等于x时的概率,也就是随机变量落在(-∞,x]区间的概率.是一种概率的累积函数.基本性质:F(x)>=0;0<=F(x)<=1;F(x)在-∞取0,在+∞取1;P{a<X<=b}=F(b)-F(a);P{X>a}=1-P(X<=a)=1-F(a);2)两点分布:P{X=k}=p^k *(1-p)^(1-k) k=0,1 3)伯努利二项分布P

隐马尔科夫模型HMM(二)前向后向算法评估观察序列概率

隐马尔科夫模型HMM(一)HMM模型 隐马尔科夫模型HMM(二)前向后向算法评估观察序列概率 隐马尔科夫模型HMM(三)鲍姆-韦尔奇算法求解HMM参数(TODO) 隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列(TODO) 在隐马尔科夫模型HMM(一)HMM模型中,我们讲到了HMM模型的基础知识和HMM的三个基本问题,本篇我们就关注于HMM第一个基本问题的解决方法,即已知模型和观测序列,求观测序列出现的概率. 1. 回顾HMM问题一:求观测序列的概率 首先我们回顾下HMM模型的问题一.这个

概率与统计 知识回顾(一) 事件的概率

一.概率是什么 概率是表示某种情况(事件)出现的可能性大小的一种数量指标,它介于0与1之间. 1.1 主观概率 凭着经验和知识对事件发生的可能性作出的一种主观估计,主观概率可以理解为一种心态或倾向性. 1.2 等可能试验 假定某个试验有有限个可能的结果$e_1,e_2,\dots,e_N$.假定从该试验的条件及实施方法去分析,我们找不到任何理由认为其中某一结果,例如$e_i$,比任一其他结果,例如$e_j$,更具有优势(即更倾向于易发生),则我们只好认为,所有结果$e_1,e_2,\dots,e

随机事件 概率 赌博 泊松分布

概率论是一门研究随机现象规律的数学分支.其起源于十七世纪中叶,当时在误差.人口统计.人寿保险等范畴中,需要整理和研究大量的随机数据资料,这就孕育 出一种专门研究大量随机现象的规律性的数学,但当时刺激数学家们首先思考概率论的问题,却是来自赌博者的问题.数学家费马向一法国数学家帕斯卡提出下列的 问题:“现有两个赌徒相约赌若干局,谁先赢s局就算赢了,当赌徒A赢a局[a < s],而赌徒B赢b局[b < s]时,赌博中止,那赌本应怎样分才合理呢?”于是他们从不同的理由出发,在1654年7月29日给出了

隐马尔可夫模型HMM(二)概率计算问题

摘自 1.李航的<统计学习方法> 2.http://www.cnblogs.com/pinard/p/6955871.html 一.概率计算问题 上一篇介绍了概率计算问题是给定了λ(A,B,π),计算一个观测序列O出现的概率,即求P(O|λ). 用三种方法,直接计算法,前向算法,后向算法. 考虑隐马尔可夫模型(一)中的盒子球模型. 假设Q={1,2,3,4}, V = {红,白},在给定λ(A,B,π)的条件下,其中: ,  , 求O=(红,白,红)的概率. 二.直接计算法 说通俗一点,就是暴

『概率和数学期望』

概率 基础概念 定义 设样本空间为\(\Omega\),若对于\(\Omega\)中的每一个随机事件\(A\),都存在实值函数\(P(A)\),满足: \(1.\) \(P(A)\geq0\) \(2.\) \(P(\Omega)=1\) \(3.\) 对于若干个两两互斥事件\(A_1,A_2,...,A_n\),有\(\sum_{i=1}^n P(A_i)=P(\bigcup_{i=1}^n A_i)\) 则称\(P(A)\)为随机事件\(A\)发生的概率. 必然事件 一定发生的事件称为必然事

概率统计 2019-7-19

一.基本概念 1.联合概率 联合概率指的是包含多个条件且所有条件同时成立的概率,记作P(X=a,Y=b)或P(a,b). 2.边际概率 边际概率是与联合概率对应的,P(X=a)或P(Y=b),这类仅与单个随机变量有关的概率称为边际概率. 3.联合概率和边际概率 P(X=a)=∑bP(X=a,Y=b) P(X=a)=∑bP(X=a,Y=b) 类似于求X=a的全概率 4.条件概率 条件概率表示在条件Y=b成立的情况下,X=a的概率,记作P(X=a|Y=b)或P(a|b),它具有如下性质: “在条件Y

概率与期望dp相关

概率与期望dp 概率 某个事件A发生的可能性的大小,称之为事件A的概率,记作P(A). 假设某事的所有可能结果有n种,每种结果都是等概率,事件A涵盖其中的m种,那么P(A)=m/n. 例如投掷一枚骰子,点数小于3的概率为2/6=1/3. 如果两个事件A和B所涵盖的结果没有交集,那么P(A或B发生)=P(A)+P(B) 还是掷骰子 P(点数小于3或点数大于4)=2/6+2/6=2/3 如果A和B所涵盖的结果有交集 那么P(A或B发生)=P(A)+P(B)-P(A与B同时发生) P(点数小于3或点数

贾俊平统计学——概率

统计学分为描述性统计和推断统计.推断统计是指通过样本数据对总体特征作出推断,它有3个要素:1.随机观测的样本数据:2.问题的条件和假定:3.对总体所做出的以概率的形式进行表述的推断.因此推断统计与概率论是密不可分的. 随机事件.基本事件.样本空间 随机事件是概率论中一个很重要的概念,它不是指一个试验,而是指一个试验的结果,可以用A.B.C等表示,必然事件用$\Omega$表示,不可能事件用$\Phi$表示. 随机事件简称为事件,要注意这一概念是指试验的结果(而不是试验本身),这个结果可以是数值,