统计挖掘那些事那些情(2)-回归分析spss

前文:统计挖掘的一些事一些情(一)

实际上,无论是日常的统计学习还是挖掘学习中,回归分析都可以算是大家最早接触,也是整个体系当中相当重要的一个内容了,所以咱们这期就从回归分析说起吧。

一般来说,借助回归分析,我们希望可以量化描述预测变量与响应变量的关系,同时帮助我们进行预测。其他的例子还有:广告的投入与市场销售的关系,受教育程度与收入的关系等。而在整个回归体系当中,最基础的莫过于普通最小二乘回归(Ordinary Least Square,简称OLS)

实际上,对于回归分析来说,我们需要有两件事情需要确认:(1)参数估计;(2)假设检验。

1:参数估计


实际上,上述的回归分析损失函数是一个凸函数;在机器学习中,我们一般会构造关于所求变量的凸函数,这更容易帮助我们取得最优解

从上面的式子中,我们可以得知,在其他因素固定的情况下,身高每增加1cm,体重就平均增加2.085kg

2:假设检验

(1)t检验

(2)相关系数r

实际上,以我们考试为例。参数估计,有点像我们回答问题的过程;而假设检验,则是像检验我们刚刚回答是否达到标准的过程;



接下来,我们简单谈谈利用SPSS Modeler的实现过程

直接回复公众号“回归分析”,将给你提供本次回归分析所使用的数据和建模文件的网盘链接

从上述分析结果中,我们可以看到系数检验表(Coefficients),无论是常数项还是身高的系数项对应的P值都是小于0.05,认为系数显著,可以写出回归方程:体重=2.085 ? 身高 ? 290.4。另外我们通过ModelSummary可以看到,该回归方程的相关系数r=0.997,说明体重与身高有非常强的线性相关。至于中间的ANOVA表格,则是F检验的结果,我们留待下节介绍。

时间: 2024-11-05 12:12:31

统计挖掘那些事那些情(2)-回归分析spss的相关文章

iOS 统计打点那些事

1.统计代码埋点 so easy? 统计打点是 App 开发里很重要的一个环节,App 的运行状态.改版后的效果.用户的各种行为等都需要打点,市面上也有不少可供选择的第三方库. 假设产品有这么个需求:当用户在详情页点击购买按钮时,记录一下事件.我们实现起来大概会是这样 // DetailViewController.m - (void)onBuyButtonTapped:(UIButton *)button {     // do some stuff, maybe send a request

第一次作业 统计软件简介和技术操作

一.SPSS (一)简介 SPSS(Statistical Product and Service Solutions),"统计产品与服务解决方案"软件.最初软件全称为"社会科学统计表"(SolutionsStatistical Package for the Social Sciences),但是随着SPSS产品服务领域的扩大和服务深度的增加,SPSS公司已于2000年正式将英文全称更改为"统计产品与服务解决方案",这标志着SPSS的战略方向正

机器学习技术在达观数据的实践

大数据时代里,互联网用户每天都会直接或间接使用到大数据技术的成果,直接面向用户的比如搜索引擎的排序结果,间接影响用户的比如网络游戏的流失用户预测.支付平台的欺诈交易监测等等.达观数据技术团队长期以来一直致力于钻研和积累各种大数据技术,曾获得cikm2014数据挖掘竞赛冠军,也开发过智能文本内容审核系统.作弊监测系统.用户建模系统等多个基于大数据技术的应用系统.机器学习是大数据挖掘的一大基础,本文以机器学习为切入点,将达观在大数据技术实践时的一些经验与大家分享(达观数据联合创始人 纪传俊) CIK

用Map-Reduce的思维处理数据

在很多人的眼里,Map-Reduce等于Hadoop,没有Hadoop谈Map-Reduce犹如自上谈兵,实则不然,Map-Reduce是一种计算模型,只是非常适合在并行的环境下运行,Hadoop是Map-Reduce的一种实现,没有Hadoop照样可以跑Map-Reduce程序.python就内置有map()和reduce方法(虽然与hadoop的map-reduce有区别). 这篇文章主要介绍如何用python在linux的管道进行map-reduce编程,本文写的所有map-reduce程

Adaboost 算法

一 Boosting 算法的起源 boost 算法系列的起源来自于PAC Learnability(PAC 可学习性).这套理论主要研究的是什么时候一个问题是可被学习的,当然也会探讨针对可学习的问题的具体的学习算法.这套理论是由Valiant提出来的,也因此(还有其他贡献哈)他获得了2010年的图灵奖.这里也贴出Valiant的头像,表示下俺等菜鸟的膜拜之情.哈哈哈 PAC 定义了学习算法的强弱   弱学习算法---识别错误率小于1/2(即准确率仅比随机猜测略高的学习算法)   强学习算法---

贝叶斯推断 && 概率编程初探

1. 写在之前的话 0x1:贝叶斯推断的思想 我们从一个例子开始我们本文的讨论.小明是一个编程老手,但是依然坚信bug仍有可能在代码中存在.于是,在实现了一段特别难的算法之后,他开始决定先来一个简单的测试用例,这个用例通过了.接着,他用了一个稍微复杂的测试用例,再次通过了.接下来更难的测试用例也通过了,这时,小明开始觉得这段代码出现bug的可能性大大大大降低了.... 上面这段白话文中,已经包含了最质朴的贝叶斯思想了!简单来说,贝叶斯推断是通过新得到的证据不断地更新我们的信念. 贝叶斯推断很少会

机器学习笔记_PRML_Adaboost 算法的原理与推导

转自:http://blog.csdn.net/v_july_v/article/details/40718799 Adaboost 算法的原理与推导 1 Adaboost的原理 1.1 Adaboost是什么 AdaBoost,是英文"Adaptive Boosting"(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出.它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器.同时,在每一轮中加

《机器学习实战》学习笔记:利用Adaboost元算法提高分类性能

一. 关于boosting算法的起源 boost 算法系列的起源来自于PAC Learnability(直译过来称为:PAC 可学习性).这套理论主要研究的是什么时候一个问题是可被学习的. 我们知道,可计算性在计算理论中已经有定义,而可学习性正是PAC Learnability理论所要定义的内容.另外,在计算理论中还有很大一部分精力花在研究问题是可计算的时候,其复杂度又是什么样的.因此,在计算学习理论中,也有研究可学习的问题的复杂度的内容,主要是样本复杂度 (Sample Complexity)

岭回归和lasso回归(转)

回归和分类是机器学习算法所要解决的两个主要问题.分类大家都知道,模型的输出值是离散值,对应着相应的类别,通常的简单分类问题模型输出值是二值的,也就是二分类问题.但是回归就稍微复杂一些,回归模型的输出值是连续的,也就是说,回归模型更像是一个函数,该函数通过不同的输入,得到不同的输出. 那么,什么是线性回归,什么是非线性回归呢? 线性回归与非线性回归 前面说了,我们的回归模型是一个函数是吧,那么线性回归就是模型函数是由若干个基本函数线性加权得到的函数.也就是每一个基本函数前面都有一个权值来调和自己对