R语言 多元线性回归分析

#线性模型中有关函数
#基本函数 a<-lm(模型公式,数据源)

#anova(a)计算方差分析表
#coef(a)提取模型系数
#devinace(a)计算残差平方和
#formula(a)提取模型公式
#plot(a)绘制模型诊断图
#predict(a)用作预测
#print(a)显示
#residuals()计算残差
#setp()逐步回归分析
#summary()提取模型资料

#多元线性回归分析

#回归系数的估计
#显著性检验:

1回归系数的显著性检验 t检验 就是检验某个变量系数是否为0

2回归方程的显著性检验 F检验 就是检验该数组数据是否能适用于线性方程做回归

#1.载入数据 求回归系数 并作显著性检验


mltest<-data.frame(
X1=c(76.0, 91.5, 85.5, 82.5, 79.0, 80.5, 74.5,
79.0, 85.0, 76.5, 82.0, 95.0, 92.5),
X2=c(50, 20, 20, 30, 30, 50, 60, 50, 40, 55,
40, 40, 20),
Y= c(120, 141, 124, 126, 117, 125, 123, 125,
132, 123, 132, 155, 147)
)
ML<-lm(Y~X1+X2,data=mltest)
summary(ML)
coef(ML)

#2.参数区间估计
#3.预测
#求X=(80,40)时相应Y的概率为0.95的预测区间

newdata<-data.frame(X1=80,X2=40)
lmpred<-predict(ML,newdata,interval="prediction",level=0.95)
lmpred

 

#4.修正拟合模型
#根据实际问题的背景 对模型进行适当的修正
#增加新的自变量
对响应变量取对数或者开方运算
update()函数

R语言 多元线性回归分析

时间: 2024-10-07 00:45:39

R语言 多元线性回归分析的相关文章

R语言之线性回归分析

一.建立简单线性回归模型可使用函数lm实现,函数是围绕公式展开的,lm接受一个公式对象作为试图建立的模型,可以通过?formula来查询通用格式,data.frame也可以被明确指定,它包括所需的数据> library(RSADBE)> data(IO_Time)> IO_lm = lm(CPU_Time ~ No_of_IO,data=IO_Time)> class(IO_lm)> summary(IO_lm)结果中:F-statistic: 635.4 on 1 and

利用R进行多元线性回归分析

对于一个因变量y,n个自变量x1,...,xn,要如何判断y与这n个自变量之间是否存在线性关系呢? 肯定是要利用他们的数据集,假设数据集中有m个样本,那么,每个样本都分别对应着一个因变量和一个n维的自变量: m个样本,就对应着一个m维的列向量Y,一个m×n维的矩阵X Y是X的每一列X1,...,Xn的函数 那么,Y与X1,...,Xn之间到底是什么关系呢?是满足Y=a1*X1+...+an*Xn这样的线性关系还是Y=f(X1,...,Xn)这样的非线性关系呢? 为了解决这个问题,可以首先利用多元

R语言之Logic回归分析

理论上,回归分析是在目标变量为连续型数据的情况下建模的,它不能处理目标变量为分类型数据的情况. 而logic回归分析的思路是把分类变量(“是否开通VIP”)转化为连续变量(“开通VIP的概率”),进而使用回归分析的方法间接地研究分类分析的问题. 一.原理 假设vip变量为分类变量,其取值只有0和1,这是分类型变量,无法通过回归分析建模. 但是,vip取值为1的概率却是一个连续型变量(prob.vip),可以使用回归分析为prob.vip建模: prob.vip=k1*x1+k2*x2+k3*x3

R语言基础知识学习(五):R中的线性回归分析

在R中线性回归分析的函数是lm(). (1)一元线性回归 我们可以根据以上数据来分析合金的强度是否与碳含量有关系. 首用以下命令把数据读取到R中: x <- c(seq(0.10,0.18,by = 0.01),0.20,0.21,0.23)y <- c(42.0,43.5,45.0,45.5,45.0,47.5,49.0,53.0,50.0,55.0,55.0,60.0)plot(x,y) 通过画图得到想x,y两个变量之间存在某种线性关系 所以,就可以用lm()函数来拟合直线,通过回归函数l

多元线性回归分析浅谈

  回归分析方法说白了就是处理多个变量相互依赖关系的一种数理统计方法(之前并没学过数理统计,恶补了一下,挺爽的~).这篇随笔中主要运用了线性代数和数理统计知识,欢迎各方大佬指正,错误之处,不胜感激. 一.建立模型 这里我们假定研究变量Y与x1,x2,x3--xm,m个变量之间的相互依赖关系.采取现实生活中观测的n组变量Y与变量x数据,建立如下方程组: yi=β0+β1xi1+β2xi2+--βmxim+εi(i=1,2,3--n) 即:Y=Cβ+ε 为弥补建立的方程组与实际数据的误差,引入ε为随

R语言多元统计分析初探

# 读取多元统计分析数据到R wine<-read.table("http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data", sep=",") # 绘制多元统计数据 # 矩阵散点图 # 一种常见的方法是使用散点图画出多元统计数据,展现出所有变量两两之间的散点图. # 我们可以使用R中的"car"包里的"scatterplotMatrix()&q

R语言之Logistic回归分析

一.probit回归模型在R中,可以使用glm函数(广义线性模型)实现,只需将选项binomial选项设为probit即可,并使用summary函数得到glm结果的细节,但是和lm不同,summary对于广义线性模型并不能给出决定系数,需要使用pscl包中的pR2函数得到伪决定系数,然后再使用summary得到细节> library(RSADBE)> data(sat)> pass_probit <- glm(Pass~Sat,data=sat,binomial(probit))&

R语言 逐步回归分析

逐步回归分析是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的. R语言中用于逐步回归分析的函数 step()    drop1()     add1() #1.载入数据 首先对数据进行多元线性回归分析 tdata<-data.frame( x1=c( 7, 1,11,11, 7,11, 3, 1, 2,21, 1,11,10), x2=c(26,29,56,31,52,55,71,31,54,47,40,66,68), x3=c( 6,15, 8, 8, 6

R语言-回归分析笔记

使用若干自变量并建立公式,以预测目标变量 目标变量是连续型的,则称其为回归分析 (1)一元线性回归分析 y=kx+b sol.lm<-lm(y~x,data) abline(sol.lm) 使模型误差的平方和最小,求参数k和b,称为最小二乘法 k=cov(x,y)/cov(x,x) b=mean(y)-k*mean(x) 估计参数b,k的取值范围 p元模型 p是自变量数,n是样本数 [ki-sd(ki)ta/2(n-p-1),ki+sd(ki)ta/2(n-p-1)] k0表示回归模型的b;