Mathematics Base - 期望、方差、协方差、相关系数总结

参考:《深度学习500问

期望

?在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和。它反映随机变量平均取值的大小。

  • 线性运算: \(E(ax+by+c) = aE(x)+bE(y)+c\)
  • ?推广形式: \(E(\sum_{k=1}^{n}{a_ix_i+c}) = \sum_{k=1}^{n}{a_iE(x_i)+c}\)
  • 函数期望:设\(f(x)\)为\(x\)的函数,则\(f(x)\)的期望为
    • 离散函数: \(E(f(x))=\sum_{k=1}^{n}{f(x_k)P(x_k)}\)
    • 连续函数: \(E(f(x))=\int_{-\infty}^{+\infty}{f(x)p(x)dx}\)

注意:

  • 函数的期望不等于期望的函数,即\(E(f(x))=f(E(x))\)
  • 一般情况下,乘积的期望不等于期望的乘积。
  • 如果\(X\)和\(Y\)相互独立,则\(E(xy)=E(x)E(y)?\)。

方差

?概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。方差是一种特殊的期望。定义为:

\[
Var(x) = E((x-E(x))^2)
\]

方差性质:

1)\(Var(x) = E(x^2) -E(x)^2\)

2)常数的方差为0;

3)方差不满足线性性质;

4)如果\(X\)和\(Y\)相互独立, \(Var(ax+by)=a^2Var(x)+b^2Var(y)\)

协方差

?协方差是衡量两个变量线性相关性强度及变量尺度。 两个随机变量的协方差定义为:

\[
Cov(x,y)=E((x-E(x))(y-E(y)))
\]

?方差是一种特殊的协方差。当\(X=Y\)时,\(Cov(x,y)=Var(x)=Var(y)\)。

协方差性质:

1)独立变量的协方差为0。

2)协方差计算公式:

\[
Cov(\sum_{i=1}^{m}{a_ix_i}, \sum_{j=1}^{m}{b_jy_j}) = \sum_{i=1}^{m} \sum_{j=1}^{m}{a_ib_jCov(x_iy_i)}
\]

3)特殊情况:

\[
Cov(a+bx, c+dy) = bdCov(x, y)
\]

相关系数

?相关系数是研究变量之间线性相关程度的量。两个随机变量的相关系数定义为:

\[
Corr(x,y) = \frac{Cov(x,y)}{\sqrt{Var(x)Var(y)}}
\]

相关系数的性质:

1)有界性。相关系数的取值范围是 ,可以看成无量纲的协方差。

2)值越接近1,说明两个变量正相关性(线性)越强。越接近-1,说明负相关性越强,当为0时,表示两个变量没有相关性。

原文地址:https://www.cnblogs.com/zdfffg/p/10322341.html

时间: 2024-10-05 05:00:37

Mathematics Base - 期望、方差、协方差、相关系数总结的相关文章

方差 协方差

[方差 协方差]方差 variance协方差 covariancehttps://en.wikipedia.org/wiki/Variance方差 一个随机变量的方差描述的是它的离散程度,一个实随机变量的方差,也成为它的二阶矩或二阶中心动差.Informally, it measures how far a set of (random) numbers are spread out from their average value. Variance has a central role in

数字特征:协方差 & 相关系数

[引入] 对于二维随机变量 $(X,Y)$ ,我们除了讨论 $X$ 与 $Y$ 的数学期望和方差除外, 还需要讨论描述 $X$ 与 $Y$ 之间相互关系的数字特征. 在<数字特征:方差>方差性质3的证明中,我们已经看到, 如果两个随机变量 $X$ 与 $Y$ 是相互独立的,则 $E\{ [X-E(X)][Y-E(Y)]\} =0$ 这意味着当 $E\{ [X-E(X)][Y-E(Y)]\} \neq 0$ 时, $X$ 与 $Y$ 不相互独立,而是存在一定的关系的. [定义] 量 $E\{ [

一起啃PRML - 1.2.2 Expectations and covariances 期望和协方差

@copyright 转载请注明出处 http://www.cnblogs.com/chxer/ 涉及到概率的一个重要的操作是寻找函数的加权平均值.在概率分布p(x)下,函数f(x)的平均值被称为f(x)的期望(expectation),记作E[f].对于一个离散变量,它的定义为: 因此平均值根据x的不同值的相对概率加权.在连续变量的情形下,期望以对应的概率密度的积分的形式表示: 类似的,我们有“条件期望”.无非就是把边缘概率变成条件概率. 在连续变量的情况下,我们把求和改成积分就好了. 如果我

z-score、方差、相关系数

z-score值: (某值-mean)/标准差=z-score zi=(xi-均值)/s,zi又称为标准分数.这是统计中的标准化公式.它给出了一组数据中各个数据的相对位置. 该公式的意义: 一个数减去均值,可认为是:该数偏离均值的程度. 因为,标准差可以认为是一组数的平均离散程度.所以,减去均值后再除以sd,可认为是:(该数偏离平均值的程度)是(整组数平均偏离程度)的几倍. 所以,针对每一个数都可以计算它的z-score值. 例子: 一组数:   X=(25,28,31,34,37,40,43)

Mathematics Base - Tensor

以下是我对张量的理解,备注是具体解释,Xmind导出的图片没法显示出来,主要还是将张量间的关系画出来,方便理解. 图1 张量 原文地址:https://www.cnblogs.com/zdfffg/p/10322330.html

数据挖掘中所需的概率论与数理统计知识

http://blog.csdn.net/v_july_v/article/details/8308762 数据挖掘中所需的概率论与数理统计知识 (关键词:微积分.概率分布.期望.方差.协方差.数理统计简史.大数定律.中心极限定理.正态分布) 导言:本文从微积分相关概念,梳理到概率论与数理统计中的相关知识,但本文之压轴戏在本文第4节(彻底颠覆以前读书时大学课本灌输给你的观念,一探正态分布之神秘芳踪,知晓其前后发明历史由来),相信,每一个学过概率论与数理统计的朋友都有必要了解数理统计学简史,因为,

推荐系统中所需的概率论与数理统计知识

前言 一个月余前,在微博上感慨道,不知日后是否有无机会搞DM,微博上的朋友只看不发的围脖评论道:算法研究领域,那里要的是数学,你可以深入学习数学,将算法普及当兴趣.想想,甚合我意.自此,便从rickjin写的"正态分布的前世今生"开始研习数学. 如之前微博上所说,"今年5月接触DM,循序学习决策树.贝叶斯,SVM.KNN,感数学功底不足,遂补数学,从'正态分布的前后今生'中感到数学史有趣,故买本微积分概念发展史读,在叹服前人伟大的创造之余,感微积分概念模糊,复习高等数学上册,

机器学习数学基础

数据挖掘中所需的概率论与数理统计知识 (关键词:微积分.概率分布.期望.方差.协方差.数理统计简史.大数定律.中心极限定理.正态分布) 导言:本文从微积分相关概念,梳理到概率论与数理统计中的相关知识,但本文之压轴戏在本文第4节(彻底颠覆以前读书时大学课本灌输给你的观念,一探正态分布之神秘芳踪,知晓其前后发明历史由来),相信,每一个学过概率论与数理统计的朋友都有必要了解数理统计学简史,因为,只有了解各个定理.公式的发明历史,演进历程.相关联系,才能更好的理解你眼前所见到的知识,才能更好的运用之.

机器学习的数学基础 - 期望、方差、协方差

期望 方差 协方差 原文地址:https://www.cnblogs.com/DicksonJYL/p/9547352.html