吴裕雄 数据挖掘与分析案例实战(6)——线性回归预测模型

# 工作年限与收入之间的散点图
# 导入第三方模块
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt

# 导入数据集
income = pd.read_csv(r‘F:\\python_Data_analysis_and_mining\\07\\Salary_Data.csv‘)
print(income.shape)
print(income.head())
# 绘制散点图
sns.lmplot(x = ‘YearsExperience‘, y = ‘Salary‘, data = income, ci = None)
# 显示图形
plt.show()

# 简单线性回归模型的参数求解
# 样本量
n = income.shape[0]
# 计算自变量、因变量、自变量平方、自变量与因变量乘积的和
sum_x = income.YearsExperience.sum()
sum_y = income.Salary.sum()
sum_x2 = income.YearsExperience.pow(2).sum()
xy = income.YearsExperience * income.Salary
sum_xy = xy.sum()
# 根据公式计算回归模型的参数
b = (sum_xy-sum_x*sum_y/n)/(sum_x2-sum_x**2/n)
a = income.Salary.mean()-b*income.YearsExperience.mean()
# 打印出计算结果
print(‘回归参数a的值:‘,a)
print(‘回归参数b的值:‘,b)

# 导入第三方模块
import statsmodels.api as sm

# 利用收入数据集,构建回归模型
fit = sm.formula.ols(‘Salary ~ YearsExperience‘, data = income).fit()
# 返回模型的参数值
print(fit.params)

# 多元线性回归模型的构建和预测
# 导入模块
from sklearn import model_selection

# 导入数据
Profit = pd.read_excel(r‘F:\\python_Data_analysis_and_mining\\07\\Predict to Profit.xlsx‘)
print(Profit.shape)
print(Profit.head())
# 将数据集拆分为训练集和测试集
train, test = model_selection.train_test_split(Profit, test_size = 0.2, random_state=1234)
print(train.head())
print(test.head())
# 根据train数据集建模
model = sm.formula.ols(‘Profit ~ RD_Spend + Administration + Marketing_Spend + C(State)‘, data = train).fit()
print(‘模型的偏回归系数分别为:\n‘, model.params)
# 删除test数据集中的Profit变量,用剩下的自变量进行预测
test_X = test.drop(labels = ‘Profit‘, axis = 1)
pred = model.predict(exog = test_X)
print(‘对比预测值和实际值的差异:\n‘,pd.DataFrame({‘Prediction‘:pred,‘Real‘:test.Profit}))

# 生成由State变量衍生的哑变量
dummies = pd.get_dummies(Profit.State)
# 将哑变量与原始数据集水平合并
Profit_New = pd.concat([Profit,dummies], axis = 1)
print(Profit_New.shape)
print(Profit_New.head())
# 删除State变量和California变量(因为State变量已被分解为哑变量,New York变量需要作为参照组)
Profit_New.drop(labels = [‘State‘,‘New York‘], axis = 1, inplace = True)

# 拆分数据集Profit_New
train, test = model_selection.train_test_split(Profit_New, test_size = 0.2, random_state=1234)
# 建模
model2 = sm.formula.ols(‘Profit ~ RD_Spend + Administration + Marketing_Spend + Florida + California‘, data = train).fit()
print(‘模型的偏回归系数分别为:\n‘, model2.params)

# 导入第三方模块
import numpy as np

# 计算建模数据中,因变量的均值
ybar = train.Profit.mean()
print(ybar)
# 统计变量个数和观测个数
p = model2.df_model
print(p)
n = train.shape[0]
print(n)
# 计算回归离差平方和
RSS = np.sum((model2.fittedvalues-ybar) ** 2)
print(RSS)
# 计算误差平方和
ESS = np.sum(model2.resid ** 2)
print(ESS)
# 计算F统计量的值
F = (RSS/p)/(ESS/(n-p-1))
print(‘F统计量的值:‘,F)
# 返回模型中的F值
print(model2.fvalue)

# 导入模块
from scipy.stats import f

# 计算F分布的理论值
F_Theroy = f.ppf(q=0.95, dfn = p,dfd = n-p-1)
print(‘F分布的理论值为:‘,F_Theroy)

# 模型的概览信息
print(model2.summary())

# 正态性检验
# 直方图法
# 导入第三方模块
import scipy.stats as stats

# 中文和负号的正常显示
plt.rcParams[‘font.sans-serif‘] = [‘Microsoft YaHei‘]
plt.rcParams[‘axes.unicode_minus‘] = False
# 绘制直方图
sns.distplot(a = Profit_New.Profit, bins = 10, fit = stats.norm, norm_hist = True,
hist_kws = {‘color‘:‘steelblue‘, ‘edgecolor‘:‘black‘},
kde_kws = {‘color‘:‘black‘, ‘linestyle‘:‘--‘, ‘label‘:‘核密度曲线‘},
fit_kws = {‘color‘:‘red‘, ‘linestyle‘:‘:‘, ‘label‘:‘正态密度曲线‘})
# 显示图例
plt.legend()
# 显示图形
plt.show()

# 残差的正态性检验(PP图和QQ图法)
pp_qq_plot = sm.ProbPlot(Profit_New.Profit)
# 绘制PP图
pp_qq_plot.ppplot(line = ‘45‘)
plt.title(‘P-P图‘)
# 绘制QQ图
pp_qq_plot.qqplot(line = ‘q‘)
plt.title(‘Q-Q图‘)
# 显示图形
plt.show()

# 导入模块
import scipy.stats as stats

a = stats.shapiro(Profit_New.Profit)
print(a)
# 生成正态分布和均匀分布随机数
rnorm = np.random.normal(loc = 5, scale=2, size = 10000)
print(rnorm)
runif = np.random.uniform(low = 1, high = 100, size = 10000)
print(runif)
# 正态性检验
KS_Test1 = stats.kstest(rvs = rnorm, args = (rnorm.mean(), rnorm.std()), cdf = ‘norm‘)
print(KS_Test1)
KS_Test2 = stats.kstest(rvs = runif, args = (runif.mean(), runif.std()), cdf = ‘norm‘)
print(KS_Test2)

# 导入statsmodels模块中的函数
from statsmodels.stats.outliers_influence import variance_inflation_factor

# 自变量X(包含RD_Spend、Marketing_Spend和常数列1)
X = sm.add_constant(Profit_New.ix[:,[‘RD_Spend‘,‘Marketing_Spend‘]])
print(X.shape)
print(X.head())

# 构造空的数据框,用于存储VIF值
vif = pd.DataFrame()
vif["features"] = X.columns
print(vif)
vif["VIF Factor"] = [variance_inflation_factor(X.values, i) for i in range(X.shape[1])]
print(vif)
# 返回VIF值
print(vif)

# 计算数据集Profit_New中每个自变量与因变量利润之间的相关系数
a = Profit_New.drop(‘Profit‘, axis = 1).corrwith(Profit_New.Profit)
print(a)

# 散点图矩阵
# 导入模块
import matplotlib.pyplot as plt
import seaborn

# 绘制散点图矩阵
seaborn.pairplot(Profit_New.ix[:,[‘RD_Spend‘,‘Administration‘,‘Marketing_Spend‘,‘Profit‘]])
# 显示图形
plt.show()

import statsmodels.formula.api as smf

# 模型修正
model3 = smf.ols(‘Profit ~ RD_Spend + Marketing_Spend‘, data = train).fit()
# 模型回归系数的估计值
print(model3.params)
# 异常值检验
outliers = model3.get_influence()
print(outliers)
# 高杠杆值点(帽子矩阵)
leverage = outliers.hat_matrix_diag
print(leverage)
# dffits值
dffits = outliers.dffits[0]
print(dffits)
# 学生化残差
resid_stu = outliers.resid_studentized_external
print(resid_stu)
# cook距离
cook = outliers.cooks_distance[0]
print(cook)
# 合并各种异常值检验的统计量值
contat1 = pd.concat([pd.Series(leverage, name = ‘leverage‘),pd.Series(dffits, name = ‘dffits‘),
pd.Series(resid_stu,name = ‘resid_stu‘),pd.Series(cook, name = ‘cook‘)],axis = 1)
print(contat1)

# 重设train数据的行索引
train.index = range(train.shape[0])
# 将上面的统计量与train数据集合并
profit_outliers = pd.concat([train,contat1], axis = 1)
print(profit_outliers.head())
# 计算异常值数量的比例
outliers_ratio = sum(np.where((np.abs(profit_outliers.resid_stu)>2),1,0))/profit_outliers.shape[0]
print(outliers_ratio)
# 挑选出非异常的观测点
none_outliers = profit_outliers.ix[np.abs(profit_outliers.resid_stu)<=2,]
print(none_outliers)

# 应用无异常值的数据集重新建模
model4 = smf.ols(‘Profit ~ RD_Spend + Marketing_Spend‘, data = none_outliers).fit()
print(model4.params)
# Durbin-Watson统计量
# 模型概览
print(model4.summary())

# 方差齐性检验
# 设置第一张子图的位置
ax1 = plt.subplot2grid(shape = (2,1), loc = (0,0))
# 绘制散点图
ax1.scatter(none_outliers.RD_Spend, (model4.resid-model4.resid.mean())/model4.resid.std())
# 添加水平参考线
ax1.hlines(y = 0 ,xmin = none_outliers.RD_Spend.min(),xmax = none_outliers.RD_Spend.max(), color = ‘red‘, linestyles = ‘--‘)
# 添加x轴和y轴标签
ax1.set_xlabel(‘RD_Spend‘)
ax1.set_ylabel(‘Std_Residual‘)

# 设置第二张子图的位置
ax2 = plt.subplot2grid(shape = (2,1), loc = (1,0))
# 绘制散点图
ax2.scatter(none_outliers.Marketing_Spend, (model4.resid-model4.resid.mean())/model4.resid.std())
# 添加水平参考线
ax2.hlines(y = 0 ,xmin = none_outliers.Marketing_Spend.min(),xmax = none_outliers.Marketing_Spend.max(), color = ‘red‘, linestyles = ‘--‘)
# 添加x轴和y轴标签
ax2.set_xlabel(‘Marketing_Spend‘)
ax2.set_ylabel(‘Std_Residual‘)

# 调整子图之间的水平间距和高度间距
plt.subplots_adjust(hspace=0.6, wspace=0.3)
# 显示图形
plt.show()

# BP检验
sm.stats.diagnostic.het_breushpagan(model4.resid, exog_het = model4.model.exog)

# 模型预测
# model4对测试集的预测
pred4 = model4.predict(exog = test.ix[:,[‘RD_Spend‘,‘Marketing_Spend‘]])
# 绘制预测值与实际值的散点图
plt.scatter(x = test.Profit, y = pred4)
# 添加斜率为1,截距项为0的参考线
plt.plot([test.Profit.min(),test.Profit.max()],[test.Profit.min(),test.Profit.max()],
color = ‘red‘, linestyle = ‘--‘)
# 添加轴标签
plt.xlabel(‘实际值‘)
plt.ylabel(‘预测值‘)
# 显示图形
plt.show()

原文地址:https://www.cnblogs.com/tszr/p/10060696.html

时间: 2024-10-29 15:30:25

吴裕雄 数据挖掘与分析案例实战(6)——线性回归预测模型的相关文章

吴裕雄 数据挖掘与分析案例实战(7)——岭回归与LASSO回归模型

# 导入第三方模块import pandas as pdimport numpy as npimport matplotlib.pyplot as pltfrom sklearn import model_selectionfrom sklearn.linear_model import Ridge,RidgeCV # 读取糖尿病数据集diabetes = pd.read_excel(r'F:\\python_Data_analysis_and_mining\\08\\diabetes.xlsx

吴裕雄 数据挖掘与分析案例实战(13)——GBDT模型的应用

# 导入第三方包import pandas as pdimport matplotlib.pyplot as plt # 读入数据default = pd.read_excel(r'F:\\python_Data_analysis_and_mining\\14\\default of credit card clients.xls')print(default.shape)print(default.head())print(default.columns)# 数据集中是否违约的客户比例# 为确

《数据挖掘:R语言实战》

<数据挖掘:R语言实战> 基本信息 作者: 黄文    王正林 丛书名: 大数据时代的R语言 出版社:电子工业出版社 ISBN:9787121231223 上架时间:2014-6-6 出版日期:2014 年6月 开本:16开 页码:292 版次:1-1 所属分类:计算机 > 软件与程序设计 > 综合 > 高级程序语言设计 更多关于>>><数据挖掘:R语言实战> 内容简介 书籍 计算机书籍 数据挖掘技术是当下大数据时代最关键的技术,其应用领域及前景

基于大数据技术推荐系统算法案例实战视频教程(项目实战)

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

秒杀系统架构分析与实战

0 系列目录 秒杀系统架构 秒杀系统架构分析与实战 1 秒杀业务分析 正常电子商务流程 (1)查询商品:(2)创建订单:(3)扣减库存:(4)更新订单:(5)付款:(6)卖家发货 秒杀业务的特性 (1)低廉价格:(2)大幅推广:(3)瞬时售空:(4)一般是定时上架:(5)时间短.瞬时并发量高: 2 秒杀技术挑战 假设某网站秒杀活动只推出一件商品,预计会吸引1万人参加活动,也就说最大并发请求数是10000,秒杀系统需要面对的技术挑战有: 对现有网站业务造成冲击 秒杀活动只是网站营销的一个附加活动,

Power BI教程_Power BI数据分析快速上手及案例实战

Power BI数据分析快速上手及案例实战 课程学习地址:http://www.xuetuwuyou.com/course/194 课程出自学途无忧网:http://www.xuetuwuyou.com 课程简介 本课程在<Power BI 数据分析快速上手>基础上结合大量的实例,深入讲解PowerBI中看似难懂的各种概念.操作, 并结合行业中的典型案例贯穿了从初级的数据透视表工具.数据透视表选项.数据透视表的刷新.数据透视表中的排序,到中级的动 态数据透视表的创建.数据透视表函数 GETPI

秒杀系统架构分析与实战(参考、转载)

目录[-] 0 系列目录 1 秒杀业务分析 2 秒杀技术挑战 3 秒杀架构原则 4 秒杀架构设计 4.1 前端层设计 4.2 站点层设计 4.3 服务层设计 4.4 数据库设计 4.4.1 基本概念 4.4.2 设计思路 5 大并发带来的挑战 5.1 请求接口的合理设计 5.2 高并发的挑战:一定要“快” 5.3 重启与过载保护 6 作弊的手段:进攻与防守 6.1 同一个账号,一次性发出多个请求 6.2 多个账号,一次性发送多个请求 6.3 多个账号,不同IP发送不同请求 7 高并发下的数据安全

【转载】秒杀系统架构分析与实战

本文转载自:http://my.oschina.net/xianggao/blog/524943 0 系列目录 秒杀系统架构 秒杀系统架构分析与实战 1 秒杀业务分析 正常电子商务流程 (1)查询商品:(2)创建订单:(3)扣减库存:(4)更新订单:(5)付款:(6)卖家发货 秒杀业务的特性 (1)低廉价格:(2)大幅推广:(3)瞬时售空:(4)一般是定时上架:(5)时间短.瞬时并发量高: 2 秒杀技术挑战 假设某网站秒杀活动只推出一件商品,预计会吸引1万人参加活动,也就说最大并发请求数是100

第88课:Spark Streaming从Flume Pull数据案例实战及内幕源码解密

本节课分成二部分讲解: 一.Spark Streaming on Pulling from Flume实战 二.Spark Streaming on Pulling from Flume源码解析 先简单介绍下Flume的两种模式:推模式(Flume push to Spark Streaming)和 拉模式(Spark Streaming pull from Flume ) 采用推模式:推模式的理解就是Flume作为缓存,存有数据.监听对应端口,如果服务可以连接,就将数据push过去.(简单,耦