随机变量

A.对于连续随机变量来说,单个点的概率是没有意义的,都为0
B.PDF值没有边界,可以大于1
C.Q1,Q2(中分位),Q3分别为使F取得1/4,1/2,3/4的x值
D.重要的离散分布
    点分布、离散均匀分布【书中的{1,2,3,...k}不都取到,而是指1/2+1/3+1/6和为1的】
    伯努利、二项分布【x1~Binomal(n1,p),x2~Binomal(n2,p)-->x1+x2~Binomal(n1+n2,p)】
    几何分布、泊松分布【x1~Possion(λ1),x2~Possion(λ2)-->x1+x2~Possion(λ1+λ2)】
E.重要的连续分布
    均匀分布、正态分布【与标准正态关系,和】
    指数分布【常用于模拟部件使用寿命,两罕见事件间隔时间】
    伽马分布【伽马函数】、Beta分布、柯西分布、t分布
F.联合概率分布中的变量并不一定都独立,独立随机变量一定要符合P(A,B)=P(A)*P(B)
G.条件概率计算方法
    1.计算fx|y==fx,y/fy
    2.Px|y=∫fx|y(x|y)dx
H.IID independent and identically distribution 独立的,等同的
I .多项式分布、高维高斯分布
J.随机变量变换
  从P(Z<z)=P(f(x)<z)出发
时间: 2024-10-09 00:39:13

随机变量的相关文章

【概率论与数理统计】小结2 - 随机变量概述

注:对随机变量及其取值规律的研究是概率论的核心内容.在上一个小结中,总结了随机变量的概念以及随机变量与事件的联系.这个小结会更加深入的讨论随机变量. 随机变量与事件 随机变量的本质是一种函数(映射关系),在古典概率模型中,“事件和事件的概率”是核心概念:但是在现代概率论中,“随机变量及其取值规律”是核心概念. 随机变量与事件的联系与区别 小结1中对这两个概念的联系进行了非常详细的描述.随机变量实际上只是事件的另一种表达方式,这种表达方式更加形式化和符号化,也更加便于理解以及进行逻辑运算.不同的事

《A First Course in Probability》-chape4-离散型随机变量-几种典型分布列

超几何分布: 超几何分布基于这样一个模型,一个坛子中有N个球,其中m个白球,N-m个黑球,从中随机取n(不放回),令X表示取出来的白球数,那么: 我们称随机变量X满足参数为(n,m,M)的超几何分布. 考察其期望的求法: 几何分布: 在独立重复实验当中,每一次实验成功的概率是p,我们关注使得实验成功一次所需要重复的实验次数n及其对应的概率,很容易看到,我们有如下的分布列: 验证其作为分布列的性质: 几何分布的期望: 根据期望的定义,并在这里设q = 1-p 二项分布: 基于最基础的一个离散型随机

《A First Course in Probability》-chaper4-离散型随机变量

超几何分布: 超几何分布基于这样一个模型,一个坛子中有N个球,其中m个白球,N-m个黑球,从中随机取n(不放回),令X表示取出来的白球数,那么: 我们称随机变量X满足参数为(n,m,M)的超几何分布. 考察其期望的求法:

【机器学习中的数学】贝叶斯框架下二元离散随机变量的概率分布

引言 我感觉学习机器学习算法还是要从数学角度入门才是唯一正道,机器学习领域大牛Michael I. Jordan给出的机器学习定义是,"A field that bridge computation and statistics,with ties to information theory, signal processing, algorithm, control theory and optimization theory".所以对于机器学习的门徒来说,我认为将计算机和统计理论有

《A First Course in Probability》-chaper4-离散型随机变量-泊松分布

基于对概率问题的工具化表征如随机变量.分布列等概念,我们可以开始讨论各种各样的分布列了.(这一章节在书中叫做“随机变量”,但是为了和第五章“连续随机变量”区分开,这里标题写成“离散型随机变量”) 从二项分布结合级数推导而来的泊松分布: 对于二项分布我们很熟悉,在生活当中我们也很常用,但是其计算公式不免显得有点繁琐,我们现进行如下的简化推导: 设某个二项分布的参数是(n,p),设置参数λ=np.随机变量为X. 同时结合几种极限求法,我们能够看到,当n趋近于无穷的时候,有: 因此我们得到: 这便是泊

《A First Course in Probability》-chaper5-连续型随机变量-随机变量函数的分布

在讨论连续型随机变量函数的分布时,我们从一般的情况中(讨论正态分布的文章中提及),能够得到简化版模型. 回忆利用分布函数和概率密度的关系求解随机变量函数分布的过程,有Y=g(x),如果g(x)是严格单调的,那么在我们就能够利用反函数直接得到X的范围(如果不是单调的,需要考虑的事情就要多一点),由此将Y的分布函数和X的分布函数建立了联系,定理的具体形式如下:

协方差为什么能表示两个随机变量的相关性?

协方差为什么能表示两个随机变量的相关性? 作者:Hg 时间:2015.8 1.引言 作为machine learning的初学者,看到如此多的问题都能够用数学简单的进行解决,再次感觉到数学的魅力.数学不仅仅是枯燥的考试题,而是人类理解世界的一种重要的工具.所以同样在搞ml的筒子们,我认为搞好数学是关键.在machine learning中有时候要测评两个特征之间的联系的程度,举ml中一个简单的例子,现在要预测房子的价格,告诉了房子的面积X和花园的面积Y这两个特征,我们要测评一下X和Y之间的相关程

《A First Course in Probability》-chaper4-离散型随机变量-负二项分布

基于我们最为熟悉的离散型分布——二项分布,我们能够衍生出很多别的分布列,对于之前介绍过的几何分布,我们赋予其的含义是:某个事件成功的概率是p,在n次独立重复实验中恰好成功一次的概率是多少.顺着这层含义,我们把1次编程r次,便得到了所谓的负二项分布.设负二项分布的随机变量是X,独立事件成功的概率是p,则在n次重复独立实验中恰好成功r次的概率是: 较之二项分布,我们能够看到,负二项分布更加强调n次重复实验中“恰好”成功r次,也就是要求第n次实验恰好是第r次成功的实验. 我们通过一个问题来进行举例——

《A First Course in Probability》-chaper4-连续型随机变量-基本概念

在利用基本的概率论模型解决实际问题的时候,我们很容易发现一些随机变量的连续分布的,例如火车进站的时间.台灯的寿命等一些和时间相关的随机变量,此时我们发现我们难以求出某个点的概率了,因为随机变量是连续的,基本事件空间是一个无穷的空间,而与无限.连续这些字眼相关,很自然的想到,这里我们要借助积分的工具. 现在我们面临的问题是,如何用上积分这个工具呢?我们假想一条曲线f(x)和连续随机变量的取值区间[a,b]围成了一个面积为1的曲边梯形,(之所以控制面积为1,是为了满足分布列的基本性质),那么对于P(

《A First Course in Probability》-chaper5-连续型随机变量-随机变量函数的期望

在关于离散型随机变量函数的期望的讨论中,我们很容易就得到了如下的等式: 那么推广到连续型随机变量,是否也存在类似的规律呢? 即对于连续型随机变量函数的期望,有: 这里给出一个局部的证明过程,完整的证明过程书中留在了理论习题当中.