R语言 回归的多面性

回归是一个令人困惑的词,因为它有许多特殊变种(见表8-1)。对于回归模型的拟合,R提

供的强大而丰富的功能和选项也同样令人困惑。例如,2005年Vito Ricci创建的列表表明,R中做

回归分析的函数已超过了205个(http://cran.r-project.org/doc/contrib/Ricci-refcardregression.pdf)。

表8-1 回归分析的各种变体

回归类型 用 途

简单线性 用一个量化的解释变量预测一个量化的响应变量

多项式 用一个量化的解释变量预测一个量化的响应变量,模型的关系是n阶多项式

多元线性 用两个或多个量化的解释变量预测一个量化的响应变量

多变量 用一个或多个解释变量预测多个响应变量

Logistic 用一个或多个解释变量预测一个类别型响应变量

泊松 用一个或多个解释变量预测一个代表频数的响应变量

Cox比例风险 用一个或多个解释变量预测一个事件(死亡、失败或旧病复发)发生的时间

时间序列 对误差项相关的时间序列数据建模

非线性 用一个或多个量化的解释变量预测一个量化的响应变量,不过模型是非线性的

非参数 用一个或多个量化的解释变量预测一个量化的响应变量,模型的形式源自数据形式,不事先设定

稳健 用一个或多个量化的解释变量预测一个量化的响应变量,能抵御强影响点的干扰

时间: 2024-10-13 06:52:08

R语言 回归的多面性的相关文章

R语言回归中的Hosmer-Lemeshow拟合优度检验

原文链接:http://tecdat.cn/?p=6166 在依赖模型得出结论或预测未来结果之前,我们应尽可能检查我们假设的模型是否正确指定.也就是说,数据不会与模型所做的假设冲突.对于二元结果,逻辑回归是最流行的建模方法.在这篇文章中,我们将看一下 Hosmer-Lemeshow逻辑回归的拟合优度检验. Hosmer-Lemeshow拟合优度检验 Hosmer-Lemeshow拟合优度检验是基于根据预测的概率或风险将样本分开.具体而言,基于估计的参数值,对于样本中的每个观察,基于每个观察的协变

R语言-回归

定义: 回归是统计学的核心,它其实是一个广义的概念,通常指那些用一个或多个预测变量来预测响应变量.既:从一堆数据中获取最优模型参数 1.线性回归 1.1简单线性回归 案例:女性预测身高和体重的关系 结论:身高和体重成正比关系 1 fit <- lm(weight ~ height,data = women) 2 summary(fit) 3 plot(women$height,women$weight,xlab = 'Height inches',ylab = 'Weight pounds')

R语言实战(四)回归

本文对应<R语言实战>第8章:回归 回归是一个广义的概念,通指那些用一个或多个预测变量(也称自变量或解释变量)来预测响应变量(也称因变量.效标变量或结果变量)的方法.通常,回归分析可以用来挑选与相应变量相关的解释变量,可以描述两者的关系,也可以生成一个等式,通过解释变量来预测响应变量. 回归分析的各种变体 回归类型 用途 简单线性 用一个量化的解释变量预测一个量化的响应变量 多项式 用一个量化的解释变量预测一个量化的响应变量,模型的关系是n阶多项式 多元线性 用两个或多个量化的解释变量预测一个

回归预测及R语言实现 Part2 回归R语言实现

下面是回归分析的各种变体的简单介绍,解释变量和相应变量就是指自变量和因变量. 常用普通最小二乘(OLS)回归法来拟合实现简单线性.多项式和多元线性等回归模型.最小二乘法的基本原理前面已经说明了,使得预测值和观察值之差最小. R中实现拟合线性模型最基本的函数是lm(),应用格式为: myfit <- lm(Y~X1+X2+-+Xk,data) data为观测数据,应该为一个data.frame,前面是拟合表达式,Y是因变量,X1-Xk是自变量,+用来分隔不同的自变量的,还有可能用到的其他符号的说明

R语言对二分连续变量进行逻辑回归数据分析

原文链接:http://tecdat.cn/?p=10067 教育或医学的标准情况是我们有一项连续的措施,但随后我们对那些具有临床/实践意义的措施有了切入点.一个例子是BMI.您可能有一个成绩测试,合格分数为70.研究人员有时可能会对30岁以上的BMI建模感兴趣,或者对通过/失败作的结果感兴趣.实质性问题通常落在对某人超过/低于此临床上显着阈值的概率进行建模的范畴之内.因此,我们将连续测量结果分为两部分,并使用逻辑回归等方法分析. 回到介绍性统计信息,您会听到类似的信息:大多数人宁愿使用规则线性

R语言︱XGBoost极端梯度上升以及forecastxgb(预测)+xgboost(回归)双案例解读

R语言︱XGBoost极端梯度上升以及forecastxgb(预测)+xgboost(回归)双案例解读 XGBoost不仅仅可以用来做分类还可以做时间序列方面的预测,而且已经有人做的很好,可以见最后的案例. 应用一:XGBoost用来做预测 -------------------------------------------------- 一.XGBoost来历 xgboost的全称是eXtreme Gradient Boosting.正如其名,它是Gradient Boosting Mach

利用R语言+逻辑回归实现自动化运营

摘要 逻辑回归是最常见的二分类算法之一,由于是有监督学习,训练阶段需要输入标签,而同时在变量较多的情况下,需要先经过一些降维处理,本文主要讲解如果通过R语言来自动化实现变量的降维以及变量转换,训练,测试,覆盖率以及准确度效果评估,以及生成最终评分配置表,而在标签与训练数据在可以自动化生成的情况下,配置表是能自动生成的.其中每个步骤都有详细的实现代码. 主要步骤 实现细节 1.生成训练数据 如类似下面的格式 lable var1 var2 var3 var4 var5 var6 var7 var8

R语言数据分析系列之九 - 逻辑回归

R语言数据分析系列之九 -- by comaple.zhang 本节将一下逻辑回归和R语言实现,逻辑回归(LR,LogisticRegression)其实属于广义回归模型,根据因变量的类型和服从的分布可以分为,普通多元线性回归模型,和逻辑回归,逻辑回归是指因变量是离散并且取值范围为{0,1}两类,如果离散变量取值是多项即变为 multi-class classification,所以LR模型是一个二分类模型,可以用来做CTR预测等.那么我们现在来引出逻辑回归如何做二分类问题. 问题引入 在多元线

用R语言的quantreg包进行分位数回归

什么是分位数回归 分位数回归(Quantile Regression)是计量经济学的研究前沿方向之一,它利用解释变量的多个分位数(例如四分位.十分位.百分位等)来得到被解释变量的条件分布的相应的分位数方程. 与传统的OLS只得到均值方程相比,分位数回归可以更详细地描述变量的统计分布.它是给定回归变量X,估计响应变量Y条件分位数的一个基本方法:它不仅可以度量回归变量在分布中心的影响,而且还可以度量在分布上尾和下尾的影响,因此较之经典的最小二乘回归具有独特的优势.众所周知,经典的最小二乘回归是针对因