协方差 和 相关系数(剔除了两个变量量纲影响、标准化后的特殊协方差)

协方差:用来度量两个随机变量关系的统计量。

公式简单翻译一下是:对于X,Y两个变量,每个时刻的“X值与其均值之差” 乘以 “Y值与其均值之差”得到一个乘积,再对这每时刻的乘积求和并求出均值。

总结一下,如果协方差为正,说明X,Y同向变化,协方差越大说明同向程度越高;如果协方差为负,说明X,Y反向运动,协方差越小说明反向程度越高。

相关系数:

翻译一下:就是用X、Y的协方差除以X的标准差和Y的标准差。

所以,相关系数也可以看成协方差:一种剔除了两个变量量纲影响、标准化后的特殊协方差。

既然是一种特殊的协方差,那它:

1、也可以反映两个变量变化时是同向还是反向,如果同向变化就为正,反向变化就为负。

2、由于它是标准化后的协方差,因此更重要的特性来了:它消除了两个变量变化幅度的影响,而只是单纯反应两个变量每单位变化时的相似程度。

标准差描述了变量在整体变化过程中偏离均值的幅度。协方差除以标准差,也就是把协方差中变量变化幅度对协方差的影响剔除掉,这样协方差也就标准化了,它反应的就是两个变量每单位变化时的情况。这也就是相关系数的公式含义了。

总结一下,对于两个变量X、Y:

(1)当他们的相关系数为1时,说明两个变量变化时的正向相似度最大,即,你变大一倍,我也变大一倍;你变小一倍,我也变小一倍。也即是完全正相关(以X、Y为横纵坐标轴,可以画出一条斜率为正数的直线,所以X、Y是线性关系的)。

(2)随着他们相关系数减小,两个变量变化时的相似度也变小,当相关系数为0时,两个变量的变化过程没有任何相似度,也即两个变量无关。

当相关系数继续变小,小于0时,两个变量开始出现反向的相似度,随着相关系数继续变小,反向相似度会逐渐变大。

(3)当相关系数为-1时,说明两个变量变化的反向相似度最大,即,你变大一倍,我变小一倍;你变小一倍,我变大一倍。也即是完全负相关(以X、Y为横纵坐标轴,可以画出一条斜率为负数的直线,所以X、Y也是线性关系的)。

https://www.zhihu.com/question/20852004

原文地址:https://www.cnblogs.com/quietwalk/p/8287657.html

时间: 2024-10-08 23:11:38

协方差 和 相关系数(剔除了两个变量量纲影响、标准化后的特殊协方差)的相关文章

度量线性相关性之协方差与相关系数

一.协方差 可以通俗的理解为:两个变量在变化过程中是同方向变化?还是反方向变化?同向或反向程度如何?(你变大,同时我也变大,说明两个变量是同向变化的) 协方差定义:Cov(X,Y)=E[(X-E(X))(Y-E(Y))] 公式简单翻译一下是:如果有X,Y两个变量,每个时刻的"X值与其均值之差"乘以"Y值与其均值之差"得到一个乘积,再对这每时刻的乘积求和并求出均值(这里求"期望"简单认为就是求均值了). 如果X.Y变化方向相同,即当X大于其均值时,

协方差和相关系数的关系

参考链接:https://www.zhihu.com/question/20852004 方差: 度量单个随机变量的离散程度,公式如下:  方差表示一位数据数据的离散程度,数值越大说明离均值的差距越大,越离散 协方差: 度量两个随机变量(变化趋势)的相似程度,定义如下: 协方差表示二维数据,表示两个变量在变化的过程中是正相关还是负相关还是不相关 正相关,你变大的同时,我也变大, 说明变量是同向变化,这时候协方差就是正的 负相关,你变大的同时,我变小,说明变量两个变量是反向变化的,这时候协方差就是

jmeter BeanShell实例-----两个变量之间的断言对比

在jmeter的中,断言没法对两个变量的进行对比后判断,只能使用Bean Shell断言来进行,总是有人来问怎么写呢.这里写一个简单的实例吧. 需求: 获取某个用户对应的设备个数接口与数据库查询的个数结果进行对比 Bean Shell断言解决方案: 获取某个用户对应的设备个数接口这个普通的Http接口,这里就不就列出了 与Oracle数据库的查询,如下图 先建立JDBC连接配置,进行JDBC查询,然后用正则提取器 再建立Bean Shell断言,如下 这里介绍下.${streamid_match

Mathematics Base - 期望、方差、协方差、相关系数总结

参考:<深度学习500问> 期望 ?在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和.它反映随机变量平均取值的大小. 线性运算: \(E(ax+by+c) = aE(x)+bE(y)+c\) ?推广形式: \(E(\sum_{k=1}^{n}{a_ix_i+c}) = \sum_{k=1}^{n}{a_iE(x_i)+c}\) 函数期望:设\(f(x)\)为\(x\)的函数,则\(f(x)\)的期望为 离散函数: \(E(f(x))=\sum_{k=

协方差与相关系数

协方差   二维随机变量(X,Y),X与Y之间的协方差定义为: Cov(X,Y)=E{[X-E(X)][Y-E(Y)]} 其中:E(X)为分量X的期望,E(Y)为分量Y的期望 协方差Cov(X,Y)是描述随机变量相互关联程度的一个特征数.从协方差的定义可以看出,它是X的偏差[X-E(X)]与Y的偏差[Y-E(Y)]的乘积的数学期望.由于偏差可正可负,因此协方差也可正可负. l  当协方差Cov(X,Y)>0时,称X与Y正相关 l  当协方差Cov(X,Y)<0时,称X与Y负相关 l  当协方差

协方差/相关矩阵/相关系数

通过两组统计数据计算而得的协方差可以评估这两组统计数据的相似程度. 样本: A = [a1, a2, ..., an] B = [b1, b2, ..., bn] 平均值: ave_a = (a1 + a2 +...+ an)/n ave_b = (b1 + b2 +...+ bn)/m 离差(用样本中的每一个元素减去平均数,求得数据的误差程度): dev_a = [a1, a2, ..., an] - ave_a dev_b = [b1, b2, ..., bn] - ave_b 协方差 协方

两个变量交换的四种方法

对于两种变量的交换,我发现四种方法,下面我用Java来演示一下. 1.利用第三个变量交换数值,简单的方法. class TestEV //创建一个类 { public static void main(String[]args) { int x =5,y=10; //定义两个变量 int temp = x; //定义第三临时变量temp并提取x值 x = y; //把y的值赋给x y = temp; //然后把临时变量temp值赋给y System.out.println("x="+x

不用新的变量,交换两个变量的值。

不用新的变量,交换两个变量的值.比如有2个变量a , b ,我们希望交换他们的值. 下面介绍两种不同的解法: 第一种:基于加减法 a = a + b ;   //先让a等于和 b = a - b ;  //和减去原来b的值得到原来a的值,赋值给b a = a - b : //和减去改变后b的值(原来a的值)得到原来b的值,赋值给a 第二种:基于异或运算 a = a ^ b  // 先a异或上b,赋值给a b = a ^ b  // a异或上b,消去b的影响得到原来的a,赋值给b a = a ^

(转)交换两个变量的值,不使用第三个变量的四种法方

通常我们的做法是(尤其是在学习阶段):定义一个新的变量,借助它完成交换.代码如下: int a,b; a=10; b=15; int t; t=a; a=b; b=t; 这种算法易于理解,特别适合帮助初学者了解计算机程序的特点,是赋值语句的经典应用.在实际软件开发当中,此算法简单明了,不会产生歧义,便于程序员之间的交流,一般情况下碰到交换变量值的问题,都应采用此算法(以下称为标准算法). 上面的算法最大的缺点就是需要借助一个临时变量.那么不借助临时变量可以实现交换吗?答案是肯定的!这里我们可以用