《A First Course in Probability》-chaper7-组合分析-期望的性质-协方差、相关系数

在实际的问题中,我们往往想要通过已有的数据来分析判断两个事件的发生是否有相关性。当然一个角度去寻找这两个事件内在的逻辑关系,这个角度需要深究两个事件的本质,而另外一个角度就是概率论提供的简单方法:基于两个事件发生的概率,我们就能够描述两个随机变量的相关性。

其实通过后边的计算式我们能够好的理解协方差为什么在一定程度上表征了两个随机变量的相关性,感性的来讲,E[XY]就是一个实际的X、Y同时发生的事件,而E[X]E[Y]则是我们为了进行比较给出的一个“假想X、Y独立”的模型,比较实际情况与理想情况的差值,显然差值越小,说明实际情况越是接近于我们假想的这个模型,X、Y的相关性就是越小。

协方差有着如下的运算性质:

(1)、(2)、(3)结合定义,比较好证,故在这里不再累述,主要讨论一下(4)的证明方法。

时间: 2024-10-09 18:14:52

《A First Course in Probability》-chaper7-组合分析-期望的性质-协方差、相关系数的相关文章

《A First Course in Probability》-chaper7-期望的性质-相关系数

之前我们介绍过,协方差能够一定程度上描述两个变量之间的相关性,但是有时候它并没有那么准确,例如下面这个例子: 本质一样的两个随机变量,独立性是不变的,但是通过这个等式我看到,如果在随机变量的前面添加了常数,协方差的结果是有比较大的差距的,因此这很不利于我们去度量两个随机变量之间的独立性,因此这里我们将描述相关性的变量进行标准化定义,这就引入了相关系数: 我们能够推导出相关系数的一条重要性:

[学习笔记]概率&期望

概率的性质 非负性:对于每一个事件$A,0\;\leq\;P(A)\;\leq\;1$. 规范性:对于必然事件$S,P(S)=1$;对于不可能事件$A,P(A)=0$. 容斥性:对于任意两个事件$A,B,P(A\;\cup\;B)=P(A)+P(B)-P(A\;\cap\;B)$. 互斥事件的可加性:设$A_1,A_2,...A_n$是互斥的$n$个事件,则$P(A_1\;\cup\;A2\;\cup\;...\;\cup\;A_n)=P(A_1)+P(A_2)+...+P(A_n)$.如果$A

(三)概率论之期望与方差

先引入两个问题 问题1:一赌徒,下赌本$n$元,赌博成功的概率为$p$此时赢得奖金为$m(m>n)$元,要不要试一试手? 问题2:小红与小明是班级中的佼佼者,考试的平均成绩相同,问派随代表学校参加竞赛比较公平? 如果我们知道随机变量的概率分布,那么关于随机变量的所有信息我们都可以得到,然而很多时候得到概率分布是不容易的而且没有必要,退而求其次我们需要刻画随机变量的一些特征.为解决问题1提出来数学期望(expectation)的概念,为解决问题2提出方差概念. 定义: 期望(expectation

数学期望、方差、标准差、协方差

数学期望数学期望E(x)完全由随机变量X的概率分布所确定,若X服从某一分布,也称E(x)是这一分布的数学期望.数学期望的定义是实验中每次可能的结果的概率乘以其结果的总和.离散型随机量的数学期望定义:离散型随机变量的所有可能取值?xixi?与其对应的概率?P(xi)?乘积的和为该离散型随机量的数学期望,记为?E(X).公式:E(X)=∑i=1nxiPi连续型随机量的数学期望定义:假设连续型随机变量?XX的概率密度函数为?f(x),如果积分∫+∞?∞xf(x)dx绝对收敛,则称这个积分的值为连续型随

数学期望、方差与矩

数学期望的定义 在概率论和统计学中,数学期望是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一. 离散型随机变量X的取值为 ,  为X对应取值的概率,可理解为数据  出现的频率 ,则:             设连续性随机变量X的概率密度函数为f(x),若积分绝对收敛,则称积分的值  为随机变量的数学期望,记为E(X). 数学期望是由随机变量的分布完全决定的,故我们常说某分布F的期望是多少,或某密度f的密度是多少. 数学期望的性质 数学期望之所以在理论和应用上都极为重要,除了它本

《Deep Learning》(3)-概率和信息论

1 为什么需要概率 2随机变量 3 概率分布 31 离散变量和概率质量函数 32 连续变量和概率密度函数 4边际概率 5 条件概率 6 条件概率的链式法则 7独立和条件独立 8 期望方差和协方差 9常用概率分布 伯努利分布 多项分布 高斯分布 指数和拉普拉斯分布 狄拉克分布和经验分布 混合分布 10常用函数的有用特性 11贝叶斯准则 12连续变量的一些技术细节 13信息论 14构造概率模型 概率论是表示不确定的数学基础.它提供了表示表示不确定的方法和求解不确定表达式的公理.在人工智能领域,概率论

数据挖掘中所需的概率论与数理统计知识

http://blog.csdn.net/v_july_v/article/details/8308762 数据挖掘中所需的概率论与数理统计知识 (关键词:微积分.概率分布.期望.方差.协方差.数理统计简史.大数定律.中心极限定理.正态分布) 导言:本文从微积分相关概念,梳理到概率论与数理统计中的相关知识,但本文之压轴戏在本文第4节(彻底颠覆以前读书时大学课本灌输给你的观念,一探正态分布之神秘芳踪,知晓其前后发明历史由来),相信,每一个学过概率论与数理统计的朋友都有必要了解数理统计学简史,因为,

推荐系统中所需的概率论与数理统计知识

前言 一个月余前,在微博上感慨道,不知日后是否有无机会搞DM,微博上的朋友只看不发的围脖评论道:算法研究领域,那里要的是数学,你可以深入学习数学,将算法普及当兴趣.想想,甚合我意.自此,便从rickjin写的"正态分布的前世今生"开始研习数学. 如之前微博上所说,"今年5月接触DM,循序学习决策树.贝叶斯,SVM.KNN,感数学功底不足,遂补数学,从'正态分布的前后今生'中感到数学史有趣,故买本微积分概念发展史读,在叹服前人伟大的创造之余,感微积分概念模糊,复习高等数学上册,

统计学常用概念:T检验、F检验、卡方检验、P值、自由度

1,T检验和F检验的由来 一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定. 通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果.倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很 少.很罕有的情况下才出现:那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够