最小二乘法学习(分享自其他博主)

二. 最小二乘法

我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机 等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一 元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对 于三维空间线性是一个平面,对于多维空间线性是一个超平面...

对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心 位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
        (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
        (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

  最常用的是普通最小二乘法( Ordinary  Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

 样本回归模型:

                   其中ei为样本(Xi, Yi)的误差

平方损失函数:

则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

根据数学知识我们知道,函数的极值点为偏导为0的点。

解得:

这就是最小二乘法的解法,就是求得平方损失函数的极值点。

四. 最小二乘法与梯度下降法

最小二乘法跟梯度下降法都是通过求导来求损失函数的最小值,那它们有什么区别呢。

相同

  1.本质相同:两种方法都是在给定已知数据(independent & dependent
variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的dependent
variables进行估算。
  2.目标相同:都是在已知数据的框架内,使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方,在之后的关于梯度上升的博文中,是采用logistic回归),估算值与实际值的总平方差的公式为:

其中为第i组数据的independent variable,为第i组数据的dependent variable,为系数向量。

不同
  1.实现方法和结果不同:最小二乘法是直接对求导找出全局最小,是非迭代法。而梯度下降法是一种迭代法,先给定一个,然后向下降最快的方向调整,在若干次迭代之后找到局部最小。梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫。

时间: 2024-08-24 08:56:05

最小二乘法学习(分享自其他博主)的相关文章

梯度上升算法(分享自其他博主)

作者:小村长  出处:http://blog.csdn.net/lu597203933 欢迎转载或分享,但请务必声明文章出处. (新浪微博:小村长zack, 欢迎交流!) 1:简单概念描述 假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称为回归.训练分类器就是为了寻找最佳拟合参数,使用的是最优化算法. 这就是简单的线性回归问题,可以通过最小二乘法求解其参数,最小二乘法和最大似然估计见:http://blog.csdn.net/lu597203933/

博主自己的博客样式分享

#下载 ??Github:源码下载 #声明 ??1. 本站模仿[夏日浅笑.]博主的博客样式,再此基础上进行二次加工,因为该博主分享出来的源码我使用时出来挺多问题. ??2. 本分享提供给懒于设置样式的人和新入门的小白. ??3. 如果使用该样式请说明出处 #使用方式 打开 博客设置,将博客皮肤设置为BlueSky,并申请JS代码支持 一般来说,快的话1小时,慢的话最晚一天 下载源码 将修改好的源码,复制到后台中,3个文件对应. #修改源码 ??列出需要修改的地方 ??1.所有a标签以及页面描述改

最小二乘法学习一

本文主要讲解基本最小二乘法和带有约束条件的最小二乘法. 一  基本最小二乘法 最小二乘法是回归中最为基础的算法.它是对模型的输出和训练样本输出的平方误差(这里还乘以了1/2只是为了求导简化)为最小时的参数 进行学习. 特别地,对于线性模型有: 求导可得: 其中设计矩阵: %基本最小二乘法 clear all; close all; n = 50; N = 1000; x = linspace(-3,3,n)'; X = linspace(-3,3,N)'; y = x.^2 + 2*x + 3

引论:博主个人简介、linux简介

博主简介: 博主毕业于山东一个普通本科,学习的不是计算机专业,基础相对较弱.14年9月报名参加了阿铭linux培训,目前课程马上就要结束,感觉阿铭linux培训在内容上并不是顶尖,但铭哥的责任感.认真态度和并不是唯利是图的教学方式很适合我. 开博初衷: 博主的培训课程马上结束,希望可以利用51cto提供的博客平台对自我学习历程进行一次总结,也希望用尽量简洁的语言能够为很多希望学习linux的朋友提供力所能及的帮助. 由于博主是初学,所以见解肯定偏而不全,但会尽最大努力保证正确性. linux简介

【学习分享】温水里的程序员,技术将成为温水。

七月,炎炎的夏日,疯狂的暴雨不分昼夜,侵袭着这座城.早上七点,我骑着摩拜单车出发去往地铁站,誓死如归一般的,挤进地铁.像往常一样,骑车.挤地铁.打卡上班.相信大家都跟我一样,未来的憧憬支撑着我们,日复一日的写着代码.重复着一样的工作.造不完的车轮.用不完的框架,然而我慢慢的开始觉得这是一个陷阱,一个把我们的梦想与未来禁锢在牢笼中.细细把玩的理想主义者. 说一个老掉牙的故事:<温水煮青蛙>, 美国康奈尔大学作过一次有名的实验. 经过精心策划安排,他们把一只青蛙冷不防丢进煮沸的油锅里,这只反应灵敏

ML学习分享系列(1)_计算广告小窥[上]

原作:面包包包包包包 改动:寒小阳 && 龙心尘 时间:2016年1月 出处:http://blog.csdn.net/breada/article/details/50572914 http://blog.csdn.net/han_xiaoyang/article/details/50580423 声明:版权全部.转载请联系作者并注明出处 1. 引言 提笔写这篇博客.我的内心是惶恐的.原因非常简单.作为一个资历尚浅的研究生,是没有资格对计算广告这样一个伟大的行业.领域和学科来评头论足的.

最小二乘法学习二

继上一篇基本最小二乘法和带部分空间约束的最小二乘法,它们要么易过拟合,要么不易求解,下面介绍 l2约束的最小二乘法,又叫正则化最小二乘法,岭回归. 一个模型的复杂程度与系数有关,最简单的模型是直接给所有系数赋值为0,则该模型总会预测出0值,模型虽然足够简单,但是没有意义,因为它不能有效预测. 定义模型的复杂度为: 由于我们的目的是使模型不要过于复杂,所以让上述值小是有意义的,因此新的目标函数为: 即 前一项为数据拟合程度的惩罚项,数据拟合的越好,该项值越小,但是也有可能过于拟合样本数据导致模型过

程序员常用不常见很难得的地址大全,博主很辛苦

网址分类导航:       简单设置与开发支持       桌面程序可能用的到        美工可能会看的         前端人员可能用的       简单工具         常用软件下载           数据库工具        游戏开发          其他语言友情链接        jQuery框架       .NET要用到的部分解决方案框架       程序员的网站       稍微偏放松点      IT方面最新的科技新闻      IT培训课程系列的网站    程序员找

全网最详细的Eclipse和MyEclipse里对于Java web项目发布到Tomcat上运行成功的对比事宜【博主强烈推荐】【适合普通的还是Maven方式创建的】(图文详解)

不多说,直接上干货! 首先,大家要明确,IDEA.Eclipse和MyEclipse等编辑器之间的新建和运行手法是不一样的. 全网最详细的Eclipse里如何正确新建普通的Java web项目并发布到Tomcat上运行成功[博主强烈推荐](图文详解) Eclipse是 或者 MyEclipse是 由 变成 即,只有所框的部分过去了.并且自动改名为dat08. 用MyEclipse里自带的Web Browser检测: 用第三方安装的浏览器检测: 欢迎大家,加入我的微信公众号:大数据躺过的坑