SPSS--回归-多元线性回归模型案例解析

多元线性回归,主要是研究一个因变量与多个自变量之间的相关关系,跟一元回归原理差不多,区别在于影响因素(自变量)更多些而已,例如:一元线性回归方程
为:

毫无疑问,多元线性回归方程应该为:

上图中的 x1,  x2,
xp分别代表“自变量”Xp截止,代表有P个自变量,如果有“N组样本,那么这个多元线性回归,将会组成一个矩阵,如下图所示:

那么,多元线性回归方程矩阵形式为:

其中: 代表随机误差,
其中随机误差分为:可解释的误差 和 不可解释的误差,随机误差必须满足以下四个条件,多元线性方程才有意义(一元线性方程也一样)

1:服成正太分布,即指:随机误差必须是服成正太分别的随机变量。

2:无偏性假设,即指:期望值为0

3:同共方差性假设,即指,所有的  随机误差变量方差都相等

4:独立性假设,即指:所有的随机误差变量都相互独立,可以用协方差解释。

今天跟大家一起讨论一下,SPSS---多元线性回归的具体操作过程,下面以教程教程数据为例,分析汽车特征与汽车销售量之间的关系。通过分析汽车特征跟汽车销售量的关系,建立拟合多元线性回归模型。数据如下图所示:

点击“分析”——回归——线性——进入如下图所示的界面:

将“销售量”作为“因变量”拖入因变量框内, 将“车长,车宽,耗油率,车净重等10个自变量
拖入自变量框内,如上图所示,在“方法”旁边,选择“逐步”,当然,你也可以选择其它的方式,如果你选择“进入”默认的方式,在分析结果中,将会得到如下图所示的结果:(所有的自变量,都会强行进入)

如果你选择“逐步”这个方法,将会得到如下图所示的结果:(将会根据预先设定的“F统计量的概率值进行筛选,最先进入回归方程的“自变量”应该是跟“因变量”关系最为密切,贡献最大的,如下图可以看出,车的价格和车轴
跟因变量关系最为密切,符合判断条件的概率值必须小于0.05,当概率值大于等于0.1时将会被剔除)

“选择变量(E)"
框内,我并没有输入数据,如果你需要对某个“自变量”进行条件筛选,可以将那个自变量,移入“选择变量框”内,有一个前提就是:该变量从未在另一个目标列表中出现!,再点击“规则”设定相应的“筛选条件”即可,如下图所示:

点击“统计量”弹出如下所示的框,如下所示:

在“回归系数”下面勾选“估计,在右侧勾选”模型拟合度“ 和”共线性诊断“
两个选项,再勾选“个案诊断”再点击“离群值”一般默认值为“3”,(设定异常值的依据,只有当残差超过3倍标准差的观测才会被当做异常值) 点击继续。

提示:

共线性检验,如果有两个或两个以上的自变量之间存在线性相关关系,就会产生多重共线性现象。这时候,用最小二乘法估计的模型参数就会不稳定,回归系数的估计值很容易引起误导或者导致错误的结论。所以,需要勾选“共线性诊断”来做判断

通过容许度可以计算共线性的存在与否? 容许度TOL=1-RI平方 或方差膨胀因子(VIF): 
VIF=1/1-RI平方,其中RI平方是用其他自变量预测第I个变量的复相关系数,显然,VIF为TOL的倒数,TOL的值越小,VIF的值越大,自变量XI与其他自变量之间存在共线性的可能性越大。

提供三种处理方法:
1:从有共线性问题的变量里删除不重要的变量

2:增加样本量或重新抽取样本。

3:采用其他方法拟合模型,如领回归法,逐步回归法,主成分分析法。

再点击“绘制”选项,如下所示:

上图中:

DEPENDENT( 因变量)   ZPRED(标准化预测值) 
ZRESID(标准化残差)    DRESID(剔除残差)   
ADJPRED(修正后预测值)   SRSID(学生化残差)  SDRESID(学生化剔除残差)

一般我们大部分以“自变量”作为 X 轴,用“残差”作为Y轴, 但是,也不要忽略特殊情况,这里我们以“ZPRED(标准化预测值)作为"x"
轴,分别用“SDRESID(血生化剔除残差)”和“ZRESID(标准化残差)作为Y轴,分别作为两组绘图变量。

再点击”保存“按钮,进入如下界面:

如上图所示:勾选“距离”下面的“cook距离”选项 (cook
距离,主要是指:把一个个案从计算回归系数的样本中剔除时所引起的残差大小,cook距离越大,表明该个案对回归系数的影响也越大)

在“预测区间”勾选“均值”和“单值” 点击“继续”按钮,再点击“确定按钮,得到如下所示的分析结果:(此分析结果,采用的是“逐步法”得到的结果)

接着上一期的“多元线性回归解析”里面的内容,上一次,没有写结果分析,这次补上,结果分析如下所示:

结果分析1:

由于开始选择的是“逐步”法,逐步法是“向前”和“向后”的结合体,从结果可以看出,最先进入“线性回归模型”的是“price in
thousands"   建立了模型1,紧随其后的是“Wheelbase" 
建立了模型2,所以,模型中有此方法有个概率值,当小于等于0.05时,进入“线性回归模型”(最先进入模型的,相关性最强,关系最为密切)当大于等0.1时,从“线性模型中”剔除

结果分析:

1:从“模型汇总”中可以看出,有两个模型,(模型1和模型2)从R2 拟合优度来看,模型2的拟合优度明显比模型1要好一些

(0.422>0.300)

2:从“Anova"表中,可以看出“模型2”中的“回归平方和”为115.311,“残差平方和”为153.072,由于总平方和=回归平方和+残差平方和,由于残差平方和(即指随即误差,不可解释的误差)由于“回归平方和”跟“残差平方和”几乎接近,所有,此线性回归模型只解释了总平方和的一半,

3:根据后面的“F统计量”的概率值为0.00,由于0.00<0.01,随着“自变量”的引入,其显著性概率值均远小于0.01,所以可以显著地拒绝总体回归系数为0的原假设,通过ANOVA方差分析表可以看出“销售量”与“价格”和“轴距”之间存在着线性关系,至于线性关系的强弱,需要进一步进行分析。

结果分析:

1:从“已排除的变量”表中,可以看出:“模型2”中各变量的T检的概率值都大于“0.05”所以,不能够引入“线性回归模型”必须剔除。

从“系数a” 表中可以看出:

1:多元线性回归方程应该为:销售量=-1.822-0.055*价格+0.061*轴距

但是,由于常数项的sig为(0.116>0.1)
所以常数项不具备显著性,所以,我们再看后面的“标准系数”,在标准系数一列中,可以看到“常数项”没有数值,已经被剔除

所以:标准化的回归方程为:销售量=-0.59*价格+0.356*轴距

2:再看最后一列“共线性统计量”,其中“价格”和“轴距”两个容差和“vif都一样,而且VIF都为1.012,且都小于5,所以两个自变量之间没有出现共线性,容忍度和
膨胀因子是互为倒数关系,容忍度越小,膨胀因子越大,发生共线性的可能性也越大

从“共线性诊断”表中可以看出:

1:共线性诊断采用的是“特征值”的方式,特征值主要用来刻画自变量的方差,诊断自变量间是否存在较强多重共线性的另一种方法是利用主成分分析法,基本思想是:如果自变量间确实存在较强的相关关系,那么它们之间必然存在信息重叠,于是就可以从这些自变量中提取出既能反应自变量信息(方差),而且有相互独立的因素(成分)来,该方法主要从自变量间的相关系数矩阵出发,计算相关系数矩阵的特征值,得到相应的若干成分。

从上图可以看出:从自变量相关系数矩阵出发,计算得到了三个特征值(模型2中),最大特征值为2.847, 最小特征值为0.003

条件索引=最大特征值/相对特征值 再进行开方 (即特征值2的 条件索引为 2.847/0.150 再开方=4.351)

标准化后,方差为1,每一个特征值都能够刻画某自变量的一定比例,所有的特征值能将刻画某自变量信息的全部,于是,我们可以得到以下结论:

1:价格在方差标准化后,第一个特征值解释了其方差的0.02,
第二个特征值解释了0.97,第三个特征值解释了0.00
2:轴距在方差标准化后,第一个特征值解释了其方差的0.00,
第二个特征值解释了0.01,第三个特征值解释了0.99

可以看出:没有一个特征值,既能够解释“价格”又能够解释“轴距”所以“价格”和“轴距”之间存在共线性较弱。前面的结论进一步得到了论证。(残差统计量的表中数值怎么来的,这个计算过程,我就不写了)

从上图可以得知:大部分自变量的残差都符合正太分布,只有一,两处地方稍有偏离,如图上的(-5到-3区域的)处理偏离状态

时间: 2024-11-03 20:54:51

SPSS--回归-多元线性回归模型案例解析的相关文章

R语言解读多元线性回归模型

转载:http://blog.fens.me/r-multi-linear-regression/ 前言 本文接上一篇R语言解读一元线性回归模型.在许多生活和工作的实际问题中,影响因变量的因素可能不止一个,比如对于知识水平越高的人,收入水平也越高,这样的一个结论.这其中可能包括了因为更好的家庭条件,所以有了更好的教育:因为在一线城市发展,所以有了更好的工作机会:所处的行业赶上了大的经济上行周期等.要想解读这些规律,是复杂的.多维度的,多元回归分析方法更适合解读生活的规律. 由于本文为非统计的专业

【机器学习实战】多元线性回归模型

在许多实际问题中,影响因变量Y的自变量不止一个,通常设为p个,此时无法借助于图形的帮助来确定模型,这里则使用一种最为简单且普遍的模型--多元线性模型来进行回归计算. 1.数学模型 当影响Y值的因素不唯一时,我们可以使用多元线性回归模型: 当未知参数有两个时,我们可以画出此方程的图形表示(此时是一个平面,如图).如果未知数大于2时,则很难把此超平面给画出来. 如上图,为了求得等参数的值,我们由各个样本点(图中为红点)做一条平行于Y轴的直线,此直线交平面方程于一点,然后我们求得此线段的程度,并进行平

计量经济学-多元线性回归模型(一)

一.多元线性回归模型 1.多元线性回归模型的一般形式: 2.总体回归函数的非随机表达式-均值的回归模型,则去掉了误差项: 3.解释变量: 4.多元线性回归模型的矩阵表达形式: n为样本下标,k+1为解释变量下标,必须是Xβ,不能反过来,矩阵相乘必须是左矩阵的列等于右矩阵的行. 5.样本回归函数: 二.基本假定 假设一:回归模型是正确设定的: 假设二:解释变量是非随机的或固定的,且各解释变量之间不存在严格线性相关性: 假设三:各解释变量在所抽取的样本中具有变异性,而且样本方差收敛: 假设四:随机误

机器学习七--回归--多元线性回归Multiple Linear Regression

一.不包含分类型变量 from numpy import genfromtxtimport numpy as npfrom sklearn import datasets,linear_modelpath=r'D:\daacheng\Python\PythonCode\machineLearning\Delivery.csv'data=genfromtxt(path,delimiter=',')print(data)x=data[:,:-1]y=data[:,-1]regr=linear_mod

线性回归模型(Linear Regression)及Python实现

线性回归模型(Linear Regression)及Python实现 http://www.cnblogs.com/sumai 1.模型 对于一份数据,它有两个变量,分别是Petal.Width和Sepal.Length,画出它们的散点图.我们希望可以构建一个函数去预测Sepal.Length,当我们输入Petal.Width时,可以返回一个预测的Sepal.Length.从散点图可以发现,可以用一条直线去拟合,这时我们可以构建一元线性回归模型:hθ(x) = θ0 + θ1x1 (x1= Pe

多元线性回归的预测

  回归模型除了对参数进行估计和检验,以弄清楚变量的相关性和因果性之外,另一个目的便是进行预测. 那么,由OLS方法的出来的预测结果是否可靠呢?预测结果的可靠性又会受什么因素的影响呢?除了点估计的预测结果,能否有区间估计的预测结果呢? 本文就这些问题,来进行一一探讨  1.引入why? 回归模型除了对参数进行估计和检验,以弄清楚变量的相关性和因果性之外,另一个目的便是进行预测. 那么,由OLS方法的出来的预测结果是否可靠呢?预测结果的可靠性又会受什么因素的影响呢?除了点估计的预测结果,能否有区间

【R】多元线性回归

R中的线性回归函数比较简单,就是lm(),比较复杂的是对线性模型的诊断和调整.这里结合Statistical Learning和杜克大学的Data Analysis and Statistical Inference的章节以及<R语言实战>的OLS(Ordinary Least Square)回归模型章节来总结一下,诊断多元线性回归模型的操作分析步骤. 1.选择预测变量 因变量比较容易确定,多元回归模型中难在自变量的选择.自变量选择主要可分为向前选择(逐次加使RSS最小的自变量),向后选择(逐

多元线性回归理论与实践

多元线性回归模型用途: 1.  回归用来拟合,解释现象: 2.  用来构建观测数据集与自变量之间一个预测模型: 3.  用来量化y与  相关性强度 假设: 1.  观测数据 相互独立 2.  随机误差服从于方差相同的正态分布 原理: ####R语言#################### 1.#########################查看数据相关性###################################### data=iris round(cor(data[,1:4]),

matlab实现一元线性回归和多元线性回归

在回归分析中,如果有两个或两个以上的自变量,就称为多元回归.事实上,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际. 在实际经济问题中,一个变量往往受到多个变量的影响.例如,家庭消费支出,除了受家庭可支配收入的影响外,还受诸如家庭所有财富.物价水平.金融机构存款利息等多种因素的影响,表现在线性回归模型中的解释变量有多个.这样的模型被称为多元线性回归模型. 多元线性回归模型的一般表现形式为 Yi=β0+β1X1i+β