监督学习&回归问题(Regression)

分类

模型如下:

  1. 回归问题:学习的结果是连续的,比如房价等等
  2. 分类问题:学习的结果是非连续的,分成某几个类

梯度下降

例子:

条件:

  • 对于输入X有n个特征值。X = {x1,x2,x3,x4,.......,xn}
  • 一共有m组输入。X1,X2,......,Xm

结果:

  • 根据给出的数据得到函数hθ(x),关于θ的一个函数

假设:

  • J(θ)主要用来描述该方程在样本点的逼近程度

特点:

  • 都具有局部最小值
  • 最后的结果并不一定是总体的最小值

1.批梯度下降:

  • 思路:

    先初始化θ = 0向量,然后通过学习,不断改变θ使Jθ不断减小,致使方程不断在学习点逼近真值。(至于为什么要选择最小二乘法和为什么这个值有极限,稍后给出证明)

  • 迭代方程:

    其中:

    • α决定下降速度
  • 推导方程:

    迭代算法:

  • 注意:
    • 该算法每次迭代查看了所有样本,知道θ收敛
    • 收敛的意思是:误差在允许的范围内就没有继续发生变化了

2.增量梯度下降:

  • 迭代算法:

  • 注意:
    • 每次迭代只用到了第 i 个样本

正规方程组

1.矩阵导数

  • 表示:

    对矩阵A的导数,函数f是一个由矩阵到实数的映射

  • 矩阵的迹:

  • 相关的性质:
    • 交换性,要就矩阵的乘法有意义:

2.最小二乘法

令J(θ) 偏导为 0 我们可以直接求出θ, 推导过程:

概率论解释

1.问题:

为什么在线性回归中我们要用最小二乘作为误差项,而不用三次方,四次方之类的。

2.解答:

  • 设:

    ?(i)是误差项, ?(i) ~ N(0,σ2)

  • 所以:

    即: y(i)|x(i);θ ~ N(θTx(i),σ2)

  • 用最大概然法:

  • 理解:

    我们把输入X,X = {x1,x2,x3,x4,.......,xn}看做一组样本,而Y是一组样本对应的观测值,而且由前面的推导我们可以知道该事件是符合y(i)|x(i);θ ~ N(θTx(i),σ2)。因此利用最大似然法我们可以求出未知参数θ,即最大化L(θ)。

    • 在梯度下降中。最大化L(θ),就是最小化

      即J(θ),因此我们让J(θ)的偏导作为增量更新θ,最后J(θ)的偏导近似为0时,我们认为迭代结束。

    • 在上面最小二乘法中。最大化L(θ),也就是令l(θ)的偏导为0,因此我们可以直接求l(θ)的偏导为0,求出θ.

时间: 2024-10-20 04:28:35

监督学习&回归问题(Regression)的相关文章

机器学习 (三) 逻辑回归 Logistic Regression

文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang 的个人笔记,为我做个人学习笔记提供了很好的参考和榜样. § 3.  逻辑回归 Logistic Regression 1 分类Classification 首先引入了分类问题的概念——在分类(Classification)问题中,所需要预测的$y$是离散值.例如判断一封邮件是否属于垃圾邮件.判断一个在线交

机器学习方法(五):逻辑回归Logistic Regression,Softmax Regression

技术交流QQ群:433250724,欢迎对算法.技术.应用感兴趣的同学加入. 前面介绍过线性回归的基本知识,线性回归因为它的简单,易用,且可以求出闭合解,被广泛地运用在各种机器学习应用中.事实上,除了单独使用,线性回归也是很多其他算法的组成部分.线性回归的缺点也是很明显的,因为线性回归是输入到输出的线性变换,拟合能力有限:另外,线性回归的目标值可以是(?∞,+∞),而有的时候,目标值的范围是[0,1](可以表示概率值),那么就不方便了. 逻辑回归可以说是最为常用的机器学习算法之一,最经典的场景就

机器学习笔记04:逻辑回归(Logistic regression)、分类(Classification)

之前我们已经大概学习了用线性回归(Linear Regression)来解决一些预测问题,详见: 1.<机器学习笔记01:线性回归(Linear Regression)和梯度下降(Gradient Decent)> 2.<机器学习笔记02:多元线性回归.梯度下降和Normal equation> 3.<机器学习笔记03:Normal equation及其与梯度下降的比较> 说明:本文章所有图片均属于Stanford机器学课程,转载请注明出处 面对一些类似回归问题,我们可

逻辑回归(logistic regression)

logistic regression可以解决分类问题,即输出的结果只有0和1两种,比如,对于邮件的判断只有是或者否.这种分类问题使用传统的线性回归并不能很好的解决. 一个小例子 例如,当我们根据肿瘤的大小判断一个肿瘤是不是良性的时候,输出结果只有是或者否,用1和0表示,给定的样本点,并且我们使用传统的线性回归问题解决拟合的函数图像如下: 图像中我们可以根据拟合曲线,当输出值大于0.5(根据图像判断的值)的时候,确定输出的为恶性(即为1):当输出值小于0.5(根据图像判断的值)的时候,确定输出的

机器学习总结之逻辑回归Logistic Regression

机器学习总结之逻辑回归Logistic Regression 逻辑回归logistic regression,虽然名字是回归,但是实际上它是处理分类问题的算法.简单的说回归问题和分类问题如下: 回归问题:预测一个连续的输出. 分类问题:离散输出,比如二分类问题输出0或1. 逻辑回归常用于垃圾邮件分类,天气预测.疾病判断和广告投放. 一.假设函数 因为是一个分类问题,所以我们希望有一个假设函数,使得: 而sigmoid 函数可以很好的满足这个性质: 故假设函数: 其实逻辑回归为什么要用sigmoi

逻辑回归 logistic regression(1)逻辑回归的求解和概率解释

本系列内容大部分来自Standford公开课machine learning中Andrew老师的讲解,附加自己的一些理解,编程实现和学习笔记. 第一章 Logistic regression 1.逻辑回归 逻辑回归是一种监督学习的分类算法,相比较之前的线性回归算法,差别在于它是一个分类算法,这也意味着y不再是一个连续的值,而是{0,1}的离散值(两类问题的情况下). 当然这依然是一个判别学习算法,所谓判别学习算法,就是我们直接去预测后验 ,或者说直接预测判别函数的算法.当然相对应的生成学习算法,

Softmax回归(Softmax Regression, K分类问题)

Softmax回归:K分类问题, 2分类的logistic回归的推广.其概率表示为: 对于一般训练集: 系统参数为: Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到: 令θ=θ0-θ1,就得到了logistic回归.所以实际上logistic回归虽然有2个参数向量,但这2个参数向量可以退化到1个参数向量.推广到K个类别,那么就需要K-1个参数向量 参数求解 类似于logistic regression,求最大似然概率,有: 其中1{k=y}为真值

Matlab实现线性回归和逻辑回归: Linear Regression &amp; Logistic Regression

原文:http://blog.csdn.net/abcjennifer/article/details/7732417 本文为Maching Learning 栏目补充内容,为上几章中所提到单参数线性回归.多参数线性回归和 逻辑回归的总结版.旨在帮助大家更好地理解回归,所以我在Matlab中分别对他们予以实现,在本文中由易到难地逐个介绍. 本讲内容: Matlab 实现各种回归函数 ========================= 基本模型 Y=θ0+θ1X1型---线性回归(直线拟合) 解决

【机器学习】Octave 实现逻辑回归 Logistic Regression

34.62365962451697,78.0246928153624,0 30.28671076822607,43.89499752400101,0 35.84740876993872,72.90219802708364,0 60.18259938620976,86.30855209546826,1 79.0327360507101,75.3443764369103,1 45.08327747668339,56.3163717815305,0 61.10666453684766,96.51142