回归与分类的区别

1)输出数据的类型

分类输出的数据类型是离散数据,也就是分类的标签。比如我们前面通过学生学习预测考试是否通过,这里的预测结果是考试通过,或者不通过,这2种离散数据。

回归输出的是连续数据类型。比如我们通过学习时间预测学生的考试分数,这里的预测结果分数,是连续数据。

2)第2个区别是我们想要通过机器学习算法得到什么?

分类算法得到是一个决策面,用于对数据集中的数据进行分类。

回归算法得到是一个最优拟合线,这个线条可以最好的接近数据集中的各个点。

3)第3个区别是对模型的评估指标不一样

在监督分类中,我们我们通常会使用正确率作为为指标,也就是预测结果中分类正确数据占总数据的比例

在回归中,我们用决定系数R平方来评估模型的好坏。R平方表示有多少百分比的y波动被回归线描述。

原文地址:https://www.cnblogs.com/aurorablog/p/9034491.html

时间: 2024-10-08 12:34:38

回归与分类的区别的相关文章

回归和分类的区别

分类模型和回归模型本质一样,分类模型是将回归模型的输出离散化. 举几个例子: 1. Logistic Regression 和 Linear Regression: Linear Regression: 输出一个标量 wx+b,这个值是连续值,所以可以用来处理回归问题. Logistic Regression:把上面的 wx+b 通过 sigmoid函数映射到(0,1)上,并划分一个阈值,大于阈值的分为一类,小于等于分为另一类,可以用来处理二分类问题. 更进一步:对于N分类问题,则是先得到N组w

机器学习-正则化+回归与分类辨析

机器学习-正则化+回归与分类辨析 这篇文章是对自己早期一篇讲正则化和回归的补充.当时写作那篇文章的时候自己还刚刚入门机器学习,许多知识是理解了,但是缺少从一定的高度上的总结.结合这篇来看原来的那篇,不容易乱. 首先要明确,正则化不是回归的专利,回归和分类都是可以使用的.在回归中使用正则化就是岭回归(L2正则化)和Lasso(L1正则化),在分类中使用就是我们常见的loss function中的正则项了(其实还有一个方面的应用,知乎这位答主提到了,就是直接构造loss function,例如L1正

机器学习之logistic回归与分类

logistic回归与分类是一种简单的分类算法.在分类的过程中只需要找到一个划分不同类的权重向量即可,对新的数据只需要乘上这个向量并比较就可以得到分类.比如下图的二分类问题: 每个样本点可以看成包含两个特征(x1,x2),现在需要把他们分开,如果这是训练集,他们本身属于哪一个类是已知的,比如说蓝色的属于0类,红色的属于1类,现在我们想通过这些数据建立一个分类标准可以将他们分开,这样再来了一个不知道类别的数据,我们看看这个标准就知道他是属于哪一类的. 像上面这个线性的,那么我们可以建立一个函数模型

Factorization Machines 学习笔记(三)回归和分类

  最近学习了一种叫做 Factorization Machines(简称 FM)的算法,它可对任意的实值向量进行预测.其主要优点包括: 1) 可用于高度稀疏数据场景:2) 具有线性的计算复杂度.本文将对 FM 框架进行简单介绍,并对其训练算法 - 随机梯度下降(SGD)法和交替最小二乘(ALS)法进行详细推导. 相关链接: (一)预测任务 (二)模型方程 (三)回归和分类 (四)学习算法 作者: peghoty 出处: http://blog.csdn.net/itplus/article/d

iOS - 类扩展与分类的区别

类扩展 (Class Extension也有人称为匿名分类) 作用: 能为某个类附加额外的属性,成员变量,方法声明 一般的类扩展写到.m文件中 一般的私有属性写到类扩展 使用格式: @interface Mitchell() //属性 //方法 @end 与分类的区别 分类的小括号中必须有名字 @interface 类名(分类名字) /*方法声明*/ @end @implementation类名(分类名字) /*方法实现*/ @end 分类只能扩充方法,不能扩展属性和成员变量(如果包含成员变量会

02-15 Logistic回归(鸢尾花分类)

目录 Logistic回归(鸢尾花分类) 一.导入模块 二.获取数据 三.构建决策边界 四.训练模型 4.1 C参数与权重系数的关系 五.可视化 更新.更全的<机器学习>的更新网站,更有python.go.数据结构与算法.爬虫.人工智能教学等着你:https://www.cnblogs.com/nickchen121/ Logistic回归(鸢尾花分类) 一.导入模块 import numpy as np import matplotlib.pyplot as plt from matplot

分类与回归的关系和区别

走刀口 分类和回归的区别在于输出变量的类型. 定量输出称为回归,或者说是连续变量预测:定性输出称为分类,或者说是离散变量预测. 举个例子:预测明天的气温是多少度,这是一个回归任务:预测明天是阴.晴还是雨,就是一个分类任务. 输入变量与输出变量均为连续变量的预测问题是回归问题:输出变量为有限个离散变量的预测问题成为分类问题:输入变量与输出变量均为变量序列的预测问题成为标注问题. 摘自:李航<统计学习方法>p4

机器学习之SVM与逻辑回归的联系和区别

通常说的SVM与逻辑回归的联系一般指的是软间隔的SVM与逻辑回归之间的关系,硬间隔的SVM应该是与感知机模型的区别和联系.而且工程中也不能要求所有的点都正确分类,训练数据中噪声的存在使得完全正确分类很可能造成过拟合. 软间隔SVM与逻辑回归的联系 要说软间隔SVM与联系就要看软间隔SVM的缘由. 软间隔SVM表示样本数据不必要求全部正确分类,允许少量的数据点犯错.于是将硬间隔SVM的优化目标由: 变成硬间隔的优化目标: 在上面的优化目标中加上了惩罚项,C越大惩罚越大允许的错误越小.但是直接使用0

机器学习中的预测问题通常分为2类:回归与分类

回归就是预测数值,而分类是给数据打上标签归类. 本例中使用一个2次函数加上随机的扰动来生成500个点,然后尝试用1.2.100次方的多项式对该数据进行拟合. 拟合的目的是使得根据训练数据能够拟合出一个多项式函数,这个函数能够很好的拟合现有数据,并且能对未知的数据进行预测. import matplotlib.pyplot as pltimport numpy as npimport scipy as spfrom scipy.stats import normfrom sklearn.pipel