正规方程法

前言

           以下内容是个人学习之后的感悟,如果有错误之处,还请多多包涵~

正规方程法

一、函数参数向量化

在计算机中,我们需要用同样的算法计算大量数据样本时,一般有两种方式:循环、参数向量化。

循环~,可想而知,计算量不是一般的大,不建议。

参数向量化的效率就高多了,把全部样本转换为向量,一次执行就搞定了。具体向量化方法,如下图所示,以线性回归

方程hθ(x)=θ01x1为例,最终转换为θ的等价公式,为正规方程法做好准备。

二、正规方程法

直接根据上图中的θ等价公式,采用所给样本,进行矩阵运算即可。

注意:由于矩阵的特殊性,以下三点需要谨慎对待。

  • 矩阵(XTX)不可逆

原因1:所求参数大于样本数。

措施  :增加样本数。

原因2:特征值太多。

措施  :删除一些冗余的特征值。

  • 样本量n太大

矩阵求逆的计算复杂度为O(n3),当样本量太大时,计算量过大,此时,不建议采用正规方程法。

  • 函数太复杂

此时无法使用正规方程法。

以上是全部内容,如果有什么地方不对,请在下面留言,谢谢~

时间: 2024-09-29 04:21:59

正规方程法的相关文章

机器学习之正规方程法

简介 本篇继续进行机器学习,主要是使用opencv,用c语言实现机器学习之一元线性回归.正规方程法. 关于这部分的原理,可以参考:1.https://www.coursera.org/learn/machine-learning/home/info 2.http://blog.csdn.net/xiazdong/article/details/7950087 具体实现 关于正规方程法的原理,这里不多做讲解,具体请参考如上两份资料. 主要使用公式: 具体代码 #include <opencv2/c

机器学习之——正规方程法

1.梯度下降法 (1)需要选择学习率a (2)需要多次迭代 优点:梯度下降法在特征变量很多的情况下也能运行地相当好 2.正规方程法 (1)不需要选择学习率a (2)不需要迭代 (3) 正规方程法不需要做特征缩放 缺点:当正规方程法的特征矩阵维度比较大时,会慢很多 总结:当n维比较小时,正规方程法比较好. 当n维比较大时,选择梯度下降法比较好. 什么时候n 算比较大.n>= 10000时,计算机算逆矩阵就比较慢了. 原文地址:https://www.cnblogs.com/gylhaut/p/93

ng机器学习视频笔记(三) ——线性回归的多变量、特征缩放、标准方程法

ng机器学习视频笔记(三) --线性回归的多变量.特征缩放.标准方程法 (转载请附上本文链接--linhxx) 一.多变量 当有n个特征值,m个变量时,h(x)= θ0+θ1x1+θ2x2-+θnxn,其中可以认为x0=1.因此,h(x)= θTx,其中θ是一维向量,θ=[θ0, θ1-θn] T,x也是一维向量,x=[x0,x1..xn] T,其中x0=1. 二.特征缩放(Feature Scaling) 特征缩放的目的,是为了让每个特征值在数量上更加接近,使得每个特征值的变化的影响相对比较"

机器学习之正则化

前言            以下内容是个人学习之后的感悟,如果有错误之处,还请多多包涵~ 正则化 一.过拟合 过拟合是一种现象.当我们提高在训练数据上的表现时,在测试数据上反而下降,这就被称为过拟合,或过配.过拟合发生 的本质原因,是由于监督学习问题的不适定:在高中数学我们知道,从n个(线性无关)方程可以解n个变量,解n+1个变量就会解 不出.在监督学习中,当样本数远远少于特征数时,会发生过拟合现象. 为了更直观地了解过拟合,请观察下面的图片.可以看到,左边是欠拟合,中间是正好拟合,右边是过拟合

线性回归模型(Linear Regression)及Python实现

线性回归模型(Linear Regression)及Python实现 http://www.cnblogs.com/sumai 1.模型 对于一份数据,它有两个变量,分别是Petal.Width和Sepal.Length,画出它们的散点图.我们希望可以构建一个函数去预测Sepal.Length,当我们输入Petal.Width时,可以返回一个预测的Sepal.Length.从散点图可以发现,可以用一条直线去拟合,这时我们可以构建一元线性回归模型:hθ(x) = θ0 + θ1x1 (x1= Pe

从一个R语言案例学线性回归

线性回归简介 如下图所示,如果把自变量(也叫independent variable)和因变量(也叫dependent variable)画在二维坐标上,则每条记录对应一个点.线性回规最常见的应用场景则是用一条直线去拟和已知的点,并对给定的x值预测其y值.而我们要做的就是找出一条合适的曲线,也就是找出合适的斜率及纵截矩. SSE & RMSE 上图中的SSE指sum of squared error,也即预测值与实际值之差的平方和,可由此判断该模型的误差.但使用SSE表征模型的误差有些弊端,比如

【机器学习】对梯度下降算法的进一步理解

单一变量的线性回归 让我们依然以房屋为例,如果输入的样本特征是房子的尺寸,我们需要研究房屋尺寸和房屋价格之间的关系,假设我们的回归模型训练集如下 其中我们用 m表示训练集实例中的实例数量, x代表特征(输入)变量, y代表目标变量 (x,y)代表实例 根据线性回归模型hΘ(x) = Θ0+Θ1*x1       (Θ是模型参数) 需要找出Θ0,Θ1,使得平均误差最小.J(Θ0,Θ1)称为代价函数. 根据不同的特征值,我们按照如下步骤进行迭代更新,以此来得到不同的Θ: 执行过程中,同步更新Θ0,Θ

机器学习:线性回归——理论与代码实现(基于正规方程与梯度下降)

一 线性模型 给定由n个属性描述的列向量\(f(\mathbf{x})={(x^{(1)};x^{(2)};...;x^{(n)})}\),其中 \(x^{(j)}\)是\(\textbf{x}\)在第\(j\)个属性的取值.线性模型即为通过对属性进行线性组合的函数,即 \[f(\mathbf{x})=w_0+w_1x^{(1)}+...+w_nx^{(n)}\] 写成向量形式如下: \[f(\textbf{x})=\mathbf{w}^\mathrm{T}\mathbf{x}\] 其中列向量\

Machine Learning_Ng 第四讲 多变量线性回归

在第四讲中,主要学习了多变量线性回归(Linear Regression with Multiple Variables)的多维特征.多变量梯度下降.特征缩放.特征和多项式回归以及正规方程等. # 多维特征(Multiple Features) 为房价模型增加更多的特征,如房间楼层数等,则构成了一个含有多个变量的模型. 假设$h_\theta(x)=\theta_0+\theta_1*x_1+\theta_2*x_2+-+\theta_n*x_n$, 设x_0=1,则存在$h_\theta(x)