R语言之逻辑回归

本文主要将逻辑回归的实现,模型的检验等

参考博文http://blog.csdn.net/tiaaaaa/article/details/58116346;http://blog.csdn.net/ai_vivi/article/details/43836641

1.测试集和训练集(3:7比例)数据来源:http://archive.ics.uci.edu/ml/datasets/statlog+(australian+credit+approval)

austra=read.table("australian.dat")
head(austra) #预览前6行

N=length(austra$V15) #690行,15列
#ind=1,ind=2分别以0.7,0.3的概率出现
ind=sample(2,N,replace=TRUE,prob=c(0.7,0.3))

aus_train=austra[ind==1,]
aus_test=austra[ind==2,]

  

2. 逻辑回归的实现及预测

pre=glm(V15~.,data=aus_train,family=binomial(link="logit"))
summary(pre)

real=aus_test$V15
predict_=predict.glm(pre,type="response",newdata=aus_test)
predict=ifelse(predict_>0.5,1,0)
aus_test$predict=predict
head(aus_test)
#write.csv(aus_test,"aus_test.csv")

  

3.模型检验

res=data.frame(real,predict)
n=nrow(aus_train)#计算Cox-Snell拟合优度
R2=1-exp((pre$deviance-pre$null.deviance)/n)
cat("Cox-Snell R2=",R2,"\n")
   #Cox-Snell R2= 0.5502854 #计算Nagelkerke拟合优度
R2=R2/(1-exp((-pre$null.deviance)/n))
cat("Nagelkerke R2=",R2,"\n")
   #Nagelkerke R2= 0.7379711
#模型其他指标
#residuals(pre)     #残差
#coefficients(pre)  #系数
#anova(pre)         #方差

  

4.准确率和精度

true_value=aus_test[,15]
predict_value=aus_test[,16]
#计算模型精度
error=predict_value-true_value
#判断正确的数量占总数的比例
accuracy=(nrow(aus_test)-sum(abs(error)))/nrow(aus_test)

#混淆矩阵中的量(混淆矩阵具体解释见下页)
#真实值预测值全为1 / 预测值全为1 --- 提取出的正确信息条数/提取出的信息条数
precision=sum(true_value & predict_value)/sum(predict_value)
#真实值预测值全为1 / 真实值全为1 --- 提取出的正确信息条数 /样本中的信息条数
recall=sum(predict_value & true_value)/sum(true_value)

#P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)
F_measure=2*precision*recall/(precision+recall)    #F-Measure是Precision和Recall加权调和平均,是一个综合评价指标  

#输出以上各结果
print(accuracy)
print(precision)
print(recall)
print(F_measure)
#混淆矩阵,显示结果依次为TP、FN、FP、TN
table(true_value,predict_value)

  

5. ROC曲线

#ROC曲线 (ROC曲线详细解释见下页)
# 方法1
#install.packages("ROCR")
library(ROCR)
pred <- prediction(predict_,true_value)   #预测值(0.5二分类之前的预测值)和真实值
performance(pred,‘auc‘)@y.values        #AUC值
perf <- performance(pred,‘tpr‘,‘fpr‘)
plot(perf)
#方法2
#install.packages("pROC")
library(pROC)
modelroc <- roc(true_value,predict.)
plot(modelroc, print.auc=TRUE, auc.polygon=TRUE,legacy.axes=TRUE, grid=c(0.1, 0.2),
     grid.col=c("green", "red"), max.auc.polygon=TRUE,
     auc.polygon.col="skyblue", print.thres=TRUE)        #画出ROC曲线,标出坐标,并标出AUC的值
#方法3,按ROC定义
TPR=rep(0,1000)
FPR=rep(0,1000)
p=predict.
for(i in 1:1000)
  {
  p0=i/1000;
  ypred<-1*(p>p0)
  TPR[i]=sum(ypred*true_value)/sum(true_value)
  FPR[i]=sum(ypred*(1-true_value))/sum(1-true_value)
  }
plot(FPR,TPR,type="l",col=2)
points(c(0,1),c(0,1),type="l",lty=2)

  

6. 更换测试集和训练集的选取方式,采用十折交叉验证

australian <- read.table("australian.dat")
#将australian数据分成随机十等分
#install.packages("caret")
#固定folds函数的分组
set.seed(7)
library(caret)
folds <- createFolds(y=australian$V15,k=10)  

#构建for循环,得10次交叉验证的测试集精确度、训练集精确度  

max=0
num=0  

for(i in 1:10){  

  fold_test <- australian[folds[[i]],]   #取folds[[i]]作为测试集
  fold_train <- australian[-folds[[i]],]   # 剩下的数据作为训练集  

  print("***组号***")  

  fold_pre <- glm(V15 ~.,family=binomial(link=‘logit‘),data=fold_train)
  fold_predict <- predict(fold_pre,type=‘response‘,newdata=fold_test)
  fold_predict =ifelse(fold_predict>0.5,1,0)
  fold_test$predict = fold_predict
  fold_error = fold_test[,16]-fold_test[,15]
  fold_accuracy = (nrow(fold_test)-sum(abs(fold_error)))/nrow(fold_test)
  print(i)
  print("***测试集精确度***")
  print(fold_accuracy)
  print("***训练集精确度***")
  fold_predict2 <- predict(fold_pre,type=‘response‘,newdata=fold_train)
  fold_predict2 =ifelse(fold_predict2>0.5,1,0)
  fold_train$predict = fold_predict2
  fold_error2 = fold_train[,16]-fold_train[,15]
  fold_accuracy2 = (nrow(fold_train)-sum(abs(fold_error2)))/nrow(fold_train)
  print(fold_accuracy2)  

  if(fold_accuracy>max)
    {
    max=fold_accuracy
    num=i
    }  

}  

print(max)
print(num)  

##结果可以看到,精确度accuracy最大的一次为max,取folds[[num]]作为测试集,其余作为训练集。

  

7.十折交叉验证的准确度

#十折里测试集最大精确度的结果
testi <- australian[folds[[num]],]
traini <- australian[-folds[[num]],]   # 剩下的folds作为训练集
prei <- glm(V15 ~.,family=binomial(link=‘logit‘),data=traini)
predicti <- predict.glm(prei,type=‘response‘,newdata=testi)
predicti =ifelse(predicti>0.5,1,0)
testi$predict = predicti
#write.csv(testi,"ausfold_test.csv")
errori = testi[,16]-testi[,15]
accuracyi = (nrow(testi)-sum(abs(errori)))/nrow(testi)   

#十折里训练集的精确度
predicti2 <- predict.glm(prei,type=‘response‘,newdata=traini)
predicti2 =ifelse(predicti2>0.5,1,0)
traini$predict = predicti2
errori2 = traini[,16]-traini[,15]
accuracyi2 = (nrow(traini)-sum(abs(errori2)))/nrow(traini)   

#测试集精确度、取第i组、训练集精确
accuracyi;num;accuracyi2
#write.csv(traini,"ausfold_train.csv")

  

混淆矩阵

    预测    
    1 0  
1 True Positive(TP) True Negative(TN) Actual Positive(TP+TN)
0 False Positive(FP) False Negative(FN) Actual Negative(FP+FN)
    Predicted Positive(TP+FP) Predicted Negative(TN+FN)      (TP+TN+FP+FN)

AccuracyRate(准确率): (TP+TN)/(TP+TN+FN+FP)

ErrorRate(误分率): (FN+FP)/(TP+TN+FN+FP)

Recall(召回率,查全率,击中概率): TP/(TP+FN), 在所有GroundTruth为正样本中有多少被识别为正样本了;

Precision(查准率):TP/(TP+FP),在所有识别成正样本中有多少是真正的正样本;

TPR(TruePositive Rate): TP/(TP+FN),实际就是Recall

FAR(FalseAcceptance Rate)或FPR(False Positive Rate):FP/(FP+TN), 错误接收率,误报率,在所有GroundTruth为负样本中有多少被识别为正样本了;

FRR(FalseRejection Rate): FN/(TP+FN),错误拒绝率,拒真率,在所有GroundTruth为正样本中有多少被识别为负样本了,它等于1-Recall

ROC曲线(receiver operating characteristic curve)

  1. 横轴是FAR,纵轴是Recall;
  2. 每个阈值的识别结果对应一个点(FPR,TPR),当阈值最大时,所有样本都被识别成负样本,对应于右上角的点(0,0),当阈值最小时,所有样本都被识别成正样本,对应于右上角的点(1,1),随着阈值从最大变化到最小,TP和FP都逐渐增大;
  3. 一个好的分类模型应尽可能位于图像的左上角,而一个随机猜测模型应位于连接点(TPR=0,FPR=0)和(TPR=1,FPR=1)的主对角线上;
  4. 可以使用ROC曲线下方的面积AUC(AreaUnder roc Curve)值来度量算法好坏:如果模型是完美的,那么它的AUG = 1,如果模型是个简单的随机猜测模型,那么它的AUG = 0.5,如果一个模型好于另一个,则它的曲线下方面积相对较大;
  5. ERR(Equal Error Rate,相等错误率):FAR和FRR是同一个算法系统的两个参数,把它放在同一个坐标中。FAR是随阈值增大而减小的,FRR是随阈值增大而增大的。因此它们一定有交点。这个点是在某个阈值下的FAR与FRR等值的点。习惯上用这一点的值来衡量算法的综合性能。对于一个更优的指纹算法,希望在相同阈值情况下,FAR和FRR都越小越好。
时间: 2024-08-26 22:19:55

R语言之逻辑回归的相关文章

R语言做逻辑回归

前面写过一个多分类的逻辑回归,现在要做一个简单的二分类,用glm函数 导入csv格式如下: mydata<-read.csv("D://li.csv",header=T) colnames(mydata)<-c("x1","x2","x3","y") model<-glm(formula = y ~ x1+x2+x3, family = quasibinomial(link = "

用R语言进行分位数回归:基础篇

用R语言进行分位数回归:基础篇 詹鹏 (北京师范大学经济管理学院 北京) http://www.xiaowanxue.com/up_files/2012121819040.html 原文地址:https://www.cnblogs.com/jwg-fendi/p/10069488.html

R语言使用二元回归将序数数据建模为多元GLM

用于分析序数数据的最常见模型是 逻辑模型 .本质上,您将结果视为连续潜在变量的分类表现.此结果的预测变量仅以一种方式对其产生影响,因此 为每个预测变量获得一个回归系数.但是该模型有几个截距,它们代表将变量切分以创建观察到的分类表现的点. 就像在普通回归模型中一样,每个预测变量都会以一种方式影响结果,这就是比例赔率假设或约束.或者,可以让每个预测变量在每个切入点对结果产生不同的影响. 如何使用单变量GLM软件对此建模?UCLA idre页面上有关于多元随机系数模型的文章.在这里很重要,因为他们使用

回归预测及R语言实现 Part2 回归R语言实现

下面是回归分析的各种变体的简单介绍,解释变量和相应变量就是指自变量和因变量. 常用普通最小二乘(OLS)回归法来拟合实现简单线性.多项式和多元线性等回归模型.最小二乘法的基本原理前面已经说明了,使得预测值和观察值之差最小. R中实现拟合线性模型最基本的函数是lm(),应用格式为: myfit <- lm(Y~X1+X2+-+Xk,data) data为观测数据,应该为一个data.frame,前面是拟合表达式,Y是因变量,X1-Xk是自变量,+用来分隔不同的自变量的,还有可能用到的其他符号的说明

回归预测及R语言实现 Part1 回归基础综述

Part1 回归基础综述 回归方法有很多种,最常见的是线性回归(又有一元和多元之分).多项式回归.非线性回归.另外还将简单说明对预测结果的检验方法.   线性回归 一元线性回归,是最简单最常见的回归模型,类似初中数学中的一元一次方程,它的基本模型如下: 我们常见的一元线性回归方程一般没有最后一项,确切的说,我们在实际的应用中也忽略了最后一项.最后一项ui的现实意义是:它是指除自变量x以外所有对因变量y有影响的其他因素,应用回归预测时,我们假设ui是一个均值为零的随机变量,方差为常值,不同ui间相

R语言之岭回归

岭回归可以用来解决过度拟合的问题 一.线性模型的岭回归可使用ridge包中的linearRidge函数和MASS包中的lm.ridge函数> library(RSADBE)> data(OF)> LM <-lm.ridge(Y~poly(X,3),data = as.data.frame(OF),lambda=c(0,0.5,1,1.5,2,5,10,30))lambda为指定值 二.Logistic回归模型的岭回归可以使用ridge包中的logisticRidge函数拟合岭回归.

逻辑回归算法实现_基于R语言

逻辑回归(Logistic Regression)模型和线性回归非常相似,可以说就是在逻辑回归的基础上加上了一步逻辑转换,也就是因为这个转换,使逻辑回归模型非常适用于二分类问题的概率预测.本文主要详述逻辑回归模型的基础以及逻辑回归模型的R语言实现. 一.逻辑回归模型原理 首先要讲一下线性回归在预测分类事件中的缺点:线性回归模型的泛化能力很差,如果训练集存在噪点,会导致模型的结果特别差,不同样本建立起来的模型分割点不同:下图中根据年龄预测是否成年的分类问题,斜线就是根据训练集拟合出来的线性回归模型

用R语言的quantreg包进行分位数回归

什么是分位数回归 分位数回归(Quantile Regression)是计量经济学的研究前沿方向之一,它利用解释变量的多个分位数(例如四分位.十分位.百分位等)来得到被解释变量的条件分布的相应的分位数方程. 与传统的OLS只得到均值方程相比,分位数回归可以更详细地描述变量的统计分布.它是给定回归变量X,估计响应变量Y条件分位数的一个基本方法:它不仅可以度量回归变量在分布中心的影响,而且还可以度量在分布上尾和下尾的影响,因此较之经典的最小二乘回归具有独特的优势.众所周知,经典的最小二乘回归是针对因

利用R语言+逻辑回归实现自动化运营

摘要 逻辑回归是最常见的二分类算法之一,由于是有监督学习,训练阶段需要输入标签,而同时在变量较多的情况下,需要先经过一些降维处理,本文主要讲解如果通过R语言来自动化实现变量的降维以及变量转换,训练,测试,覆盖率以及准确度效果评估,以及生成最终评分配置表,而在标签与训练数据在可以自动化生成的情况下,配置表是能自动生成的.其中每个步骤都有详细的实现代码. 主要步骤 实现细节 1.生成训练数据 如类似下面的格式 lable var1 var2 var3 var4 var5 var6 var7 var8