线性回归、多项式回归

前言

以下内容是个人学习之后的感悟,如果有错误之处,还请多多包涵~

简介

回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于

预测或者分类。该方法处理的数据可以是多维的。

一、线性回归

  • 原理:

在连续型统计数据情况下,选取大量的样本数据,如下图中的红色十字表示的(x,y)值,根据这些样本的趋势,

选择合适的假设函数,此处选择的是线性回归的假设函数。根据样本,计算代价函数的极小值,此时的θ值就是我们

需要得到的数学模型的参数值。

计算代价函数的极小值~   why?  (没学过统计概率学的童鞋可能不太清楚)

首先,我们要寻找的目标,是能够尽量符合所有样本的数学模型。当然,一般情况下,这是找不到的,那么,我

们就会考虑:就算不能找到完全符合的数学模型,我们也可以找尽可能符合的数学模型来代替。没错~,在线性规划

中,我们采用了最小二乘法,使样本在数学模型中的误差平方和最小,这也就产生了代价函数。我们只需要找到

代价函数的极小值,此时的θ代入到假设函数中,我们就得到了比较符合的数学模型。

  • 假设函数:

  • 代价函数:

有人会问:不是说代价函数J(θ0,θ1)是由最小二乘法中的误差平方和推导而来吗?前面的1/m,我们能

理解,是平均了一下,那么1/2是哪来的呢?

其实吧,刚开始我也不是特别明白,直到求解J(θ0,θ1)的极小值时,我才恍然大悟。原来,我们在使用

梯度下降法时,需要求导(懂了吗?误差的平方求导的时候会产生一个2)。当然,这只是我个人理解~

  • 目标:

寻找J(θ0,θ1)的极小值点,获得此时的θ值。

  • 方法:

梯度下降法(具体详情点链接)

正规方程法

二、多项式回归

  • 原理:

前面提到,根据样本的趋势来决定假设函数,当趋势较为复杂时,线性模型就不适用了。下图是房子的价格与尺

寸的关系图,从图中我们可以看出,符合样本趋势的数学模型应该是非线性的,在这里我们采用的是二次曲线。

但是,我们怎么去求该数学模型的代价函数极小值呢?太复杂了,oh~ no!

其实,我们可以简化求解的复杂度,只需要把符合趋势的假设函数转换为等价的线性模型即可。具体转换见下面。

  • 假设函数:

  • 转换函数:

通过以下转换:

得到:

  • 方法:

既然得到了线性数学模型,接下来就是你的showtime了~~

以上是全部内容,如果有什么地方不对,请在下面留言,谢谢~

时间: 2024-10-13 17:54:52

线性回归、多项式回归的相关文章

02-04 线性回归

目录 线性回归 一.线性回归学习目标 二.线性回归引入 三.线性回归详解 3.1 线性模型 3.2 一元线性回归 3.2.1 一元线性回归的目标函数 3.2.2 均方误差最小化--最小二乘法 3.3 多元线性回归 3.3.1 均方误差最小化--最小二乘法 3.3.2 均方误差最小化--牛顿法(TODO) 3.3.3 均方误差最小化--拟牛顿法(TODO) 3.4 多项式回归 3.5 对数线性回归 3.6 局部加权线性回归 3.7 正则化 3.7.1 L1正则化 3.7.2 L2正则化 3.7.3

机器学习:逻辑回归(基础理解)

逻辑回归(Logistic Regression) 一.行业算法应用率 具统计,2017年,除了军事和安全领域,逻辑回归算法是在其它所有行业使用最多了一种机器学习算法: Logistic Regression(逻辑回归) Decision Trees(决策树) Random Forests(随机森林) Neural Networks(人工神经网络 NNs)--深度学习算法 人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型

五种回归方法的比较

引言 线性和逻辑回归通常是人们为机器学习和数据科学学习的第一个建模算法. 两者都很棒,因为它们易于使用和解释. 然而,它们固有的简单性也有一些缺点,在许多情况下它们并不是回归模型的最佳选择. 实际上有几种不同类型的回归,每种都有自己的优点和缺点. 在这篇文章中,我们将讨论5种最常见的回归算法及其属性,同时评估他们的性能. 最后,希望让您更全面地了解回归模型! 目录 线性回归 多项式回归 岭回归 套索回归 弹性网络回归 线性回归(Linear Regression) 回归是一种用于建模和分析变量之

多元线性回归和多项式回归

多项式回归也称多元非线性回归,是指包含两个以上变量的非线性回归模型.对于多元非线性回归模型求解的传统解决方案,仍然是想办法把它转化成标准的线性形式的多元回归模型来处理. 多元非线性回归分析方程 如果自变数与依变数Y皆具非线性关系,或者有的为非线性有的为线性,则选用多元非线性回归方程是恰当的.例如,二元二次多项式回归方程为: 令,及于是上式化为五元一次线性回归方程: 这样以来,便可按多元线性回归分析的方法,计算各偏回归系数,建立二元二次多项式回归方程. -参考文献:智库百科,点击打开 多元二项式回

scikit-learn : 线性回归,多元回归,多项式回归

匹萨的直径与价格的数据 %matplotlib inline import matplotlib.pyplot as plt def runplt(): plt.figure() plt.title(u'diameter-cost curver') plt.xlabel(u'diameter') plt.ylabel(u'cost') plt.axis([0, 25, 0, 25]) plt.grid(True) return plt plt = runplt() X = [[6], [8],

python实现线性回归

一. 必备的包 一般而言,这几个包是比较常见的: • matplotlib,用于绘图 • numpy,数组处理库 • pandas,强大的数据分析库 • sklearn,用于线性回归的库 • scipy, 提供很多有用的科学函数 我一般是用pip安装,若不熟悉这些库,可以搜索一下它们的简单教程. 二. 线性回归 为了尽量简单,所以用以下一元方程式为例子: 典型的例子是房价预测,假设我们有以下数据集: 我们需要通过训练这些数据得到一个线性模型,以便来预测大小为700平方英尺的房价是多少. 详细代码

线性回归原理小结

线性回归可以说是机器学习中最基本的问题类型了,这里就对线性回归的原理和算法做一个小结. 1. 线性回归的模型函数和损失函数 线性回归遇到的问题一般是这样的.我们有m个样本,每个样本对应于n维特征和一个结果输出,如下: (x(0)1,x(0)2,...x(0)n,y0),(x(1)1,x(1)2,...x(1)n,y1),...(x(m)1,x(m)2,...x(m)n,yn)(x1(0),x2(0),...xn(0),y0),(x1(1),x2(1),...xn(1),y1),...(x1(m)

机器学习笔记-1.线性回归

1. Linear Regression 1.1 Linear Regression with one variable 某个目标量可能由一个或多个变量决定,单变量线性回归就是我们仅考虑一个变量与目标量的关系.例如,我们可以仅考虑房子的面积X与房价y的关系,如下图. 通常将已有的可利用的数据成为data set or training set. 首先我们定义出线性的hypothesis function h,然后定义出cost function J,为了使得假设函数接近或等于实际值,目标是使得函

机器学习之多变量线性回归(Linear Regression with multiple variables)

1. Multiple features(多维特征) 在机器学习之单变量线性回归(Linear Regression with One Variable)我们提到过的线性回归中,我们只有一个单一特征量(变量)--房屋面积x.我们希望使用这个特征量来预测房子的价格.我们的假设在下图中用蓝线划出: 不妨思考一下,如果我们不仅仅知道房屋面积(作为预测房屋价格的特征量(变量)),我们还知道卧室的数量.楼层的数量以及房屋的使用年限,那么这就给了我们更多可以用来预测房屋价格的信息. 即,支持多变量的假设为: