概率论知识总结

概率论第三部分:二(多)维随机变量的性质计算

1.如何计算二维随机变量的联合分布函数?

思路:首先分类讨论:离散型:对分布律进行求和——连续型:求出概率密度函数,正确定限,积分。其中,正确定限是连续型求解中极其容易犯错的地方

例题:随机变量(x,y)服从d上的均匀分布,其中d为x轴、y轴及直线y=2x+1围成的三角形区域,求
(1)随机变量(x,y)的密度函数(2)随机变量(x,y)的分布函数

密度函数自然不用说,面积是1/4,所以密度函数一个是0,一个是4,(注意定义域:-1/2<=x<=0,0<=y<=2x+1)

重点来了,如何求解(x,y)的分布函数?

由定义可知:F(x,,y)=∫∫f(x,y)dxdy,(积分下限是-∞,上限分别是x和y)

但是我们要注意,f(x,y)仅在定义域(-1/2<=x<=0,0<=y<=2x+1)内是非零的,所以我们需要画图进行分类讨论。

  1. 由F(x)的定义   小于x的概率   ,我们就可以知道,当x和y有任意一个小于定义域的左边界时,从-∞积分上来都会因为f(x,y)==0而为0。
  2. 当x,y都在定义域的范围内时,我们可以认为x,y都是变量,所以x和y的积分上限都是x和y(因为在这种情况下,x和y是分别独立被给定的,之间没有关系),我们可以调换积分顺序,先积分的变量要用另外一个变量来确定上下限,本题中,如果先x后y,则x是:(-1/2*(y-1))——x,y是:0——y,如果先y后x,则x是:(-1/2)——x,而y是:2x+1——y
  3. 当x在定义域范围,而y出了定义域范围时,我们知道,y如果小于定义域中y的下限,则已经在1中讨论过为0,因此这里需要再讨论y大于定义域上限的情况。此时,由于y超出了范围,因此y不再是2中的那种“变量”,此时只有x可以被“给定”,所以此时要先积y,再积x,不能调换顺序,因为此时的F(x,y)需要用可以被给定的变量来刻画,也就是x。因此,积分上下限为,x是:-1/2——x,y是:0——2x+1,还是2x+1——1?答案是0——2x+1。为什么呢,因为这还是和F的含义有关,当x在定义域内,而y超出定义域时,我们通过画图,可以看出,给定一个x后,y的积分实际上还是从-∞到达一个超过了定义域的值为止,所以可以在图形上表示如下:所以,实际影响结果的还是涂黑的那部分。
  4. 接下来,如果y在定义域内,而x超出了定义域,那么我们确定F(x,y)需要用y来表示,我们可以根据3中的思路,得到x和y的上下限:x为:(y-1)/2——0,y为:0——y
  5. 最后,如果x和y都超出了定义域,那么毫无疑问,F(x,y)==1

这样,我们就可以保证无遗漏地讨论了所有的F(x,y),只要求出并写出,就可以了。

时间: 2024-11-03 21:46:01

概率论知识总结的相关文章

机器学习中有关概率论知识的小结

一.引言 最近写了许多关于机器学习的学习笔记,里面经常涉及概率论的知识,这里对所有概率论知识做一个总结和复习,方便自己查阅,与广大博友共享,所谓磨刀不误砍柴工,希望博友们在这篇博文的帮助下,阅读机器学习的相关文献时能够更加得心应手!这里只对本人觉得经常用到的概率论知识点做一次小结,主要是基本概念,因为机器学习中涉及概率论的地方,往往知道基本概念就不难理解,后面会不定期更新,希望博友们多留言补充. 二.贝叶斯(Bayes)公式 通常把事件 A 的概率 P(A)叫做实验前的假设概率,即先验概率(pr

复变函数、运筹学与概率论知识总结

复变函数.运筹学与概率论知识总结 版本:2019-09-08 此版本是最终版本. 如有错误请指出,转载时请注明出处! cover perface content postscript Copyright ©2019 阆苑祁寒 更多内容,敬请期待: 复变函数知识总结(1)——序言和准备知识 运筹学知识总结(1)——线性规划 概率论基础知识总结(1)——集合.概率和计数 原文地址:https://www.cnblogs.com/sxwlttsd/p/11487850.html

机器学习中概率论知识复习

机器学习先验知识概率论部分,发现看Machine Learning(-Andrew Ng)课程的时候中间有推导过程不是很明白,遂针对性复习. 知识内容组织结构,参考:<Probability Theory Review for Machine Learning>(Machine Learning-Andrew Ng,课程讲义复习笔记2) 内容补充,参考维基百科. 公式编辑参考:http://meta.math.stackexchange.com/questions/5020/mathjax-b

基础概率论知识

全概率公式:已知过程求结果. 如果{ Bn : n = 1, 2, 3, ... } 是一个概率空间的有限或者可数无限的切割(既 Bn为宜完备事件组),且每一个集合Bn是一个可測集合,则对随意事件A有全概率公式: 又由于 此处Pr(A | B)是B发生后A的条件概率,所以全概率公式又可写作: 贝叶斯公式:已知结果求过程. 贝叶斯定理是关于随机事件A和B的条件概率(或边缘概率)的一则定理. 当中P(A|B)是在B发生的情况下A发生的可能性. 排列组合 排列组合是组合学最主要的概念.所谓排列,就是指

机器学习预备知识之概率论(上)

随着Hadoop等处理大数据技术的出现和发展,机器学习也越来越走进人们的视线.其实早在Hadoop之前,机器学习和数据挖掘早已经作为单独的学科而存在,那为什么在hadoop出现之后,机器学习如此的引人注目呢?一个重要原因是hadoop的出现使很多人拥有了处理海量数据的技术支撑,进而发现数据的重要性,而要想从数据中发现有价值的信息,选择机器学习似乎是必然的趋势.当然也不排除舆论的因素,其实本人一直对很多人宣称掌握了机器学习持怀疑态度.而要想理解机器学习的精髓,数学知识是不可或缺的,比如线性代数,概

概率论机器学习的先验知识(上)

随着Hadoop等大数据的出现和技术的发展,机器学习越来越多地进入人们的视线. 其实早Hadoop之前,机器学习和数据挖掘已经存在,作为一个单独的学科,为什么hadoop之后出现,机器学习是如此引人注目了?因是hadoop的出现使非常多人拥有了处理海量数据的技术支撑.进而发现数据的重要性,而要想从数据中发现有价值的信息.选择机器学习似乎是必定的趋势.当然也不排除舆论的因素.事实上本人一直对非常多人宣称掌握了机器学习持怀疑态度.而要想理解机器学习的精髓.数学知识是不可或缺的,比方线性代数.概率论和

概率论和数理统计的总结(一)

迄今为止,看得最为亲切的一本概率论与数理统计方面的书莫过于陈希孺先生的这本,陈先生用一种娓娓道来的语气把很多原本复杂的内容讲得那么清晰,而且并不是就着这一点知识而讲,能结合前后知识体系一起介绍. 这本书名为<概率论与数理统计>,主要也是讲两大知识体系,前半部分(前三章)讲概率论,后半部分(后三章)讲数理统计. 就知识点来看,第一章讲事件的概率,包括什么是概率(概率是什么),古典概率计算以及事件的计算.条件概率和概率的独立性.在这一章里,事件是整个概率的基础,如何定义概率也是整个概率论知识体系演

MLAPP——机器学习的概率知识总结

<机器学习>课程使用的是Kevin P. Murphy所著的<Machine Learning A Probabilistic Perspective>这本英文原版教材,这本书从概率论这个数学角度独特阐述了机器学习的所有问题,需要较强的数学基础.因为是英文教材,特开一个专题在此记录自己的学习过程和各种问题,以供备忘和举一反三之用. 在讲解了机器学习的概述之后,第二章紧接着就开始讲述概率论的知识,通过后续的学习会发现,这些概率论知识有部分在本科的概率论课程中学习过,但是有很多其他部分

《统计推断(Statistical Inference)》读书笔记——第1章 概率论

第一章介绍了基本的概率论知识,以下是这一章的思维导图