Andrew Ng机器学习第一章——单变量线性回归

监督学习算法工作流程

  

  h代表假设函数,h是一个引导x得到y的函数

  如何表示h函数是监督学习的关键问题

  线性回归:h函数是一个线性函数

代价函数

  在线性回归问题中,常常需要解决最小化问题。代价函数常用平方误差函数来表示

  代价函数就是用于找到最优解的目的函数,这也是代价函数的作用

  ps:尽可能简化问题去理解一些抽象概念,如单一的参数变化等等

  可以利用代价函数去寻找你拟合效果最好的假设函数的参数

  当参数很多时,利用图表来寻找最小代价函数就变得比较复杂,故引出梯度下降法。

梯度下降法最小化任意代价函数J

  

  梯度下降法的思路:给定初始值,一般初始值为0.然后不断修改参数直到目标函数取到最小值

  梯度下降法示意图:

    

    一、把图像看做一座山,梯度下降法就是寻找最快下山的路径。给定初始位置,寻找当前点下降最快的方向并往前迈进一小步,不断重复直到找到局部局部最优解。

    二、当初始位置不同时,所得到的局部最优解也是不同的。

  梯度下降法公式分析:

    

    实现这个算法的关键是采用同步更新,即

  梯度下降法可以收敛到局部最低点的原因:当处于最低点时,导数为0,此时的参数和原来的参数是一样的,而且学习率α保持不变且不为0(因为趋近于最低点时,导数的数值在不断地变小),最终θj依然可以保持不变。

  此外,α的取值需要合适。太小算法运行时间较长,太大有可能越过局部最低点导致算法不收敛。

原文地址:https://www.cnblogs.com/wemo/p/8735118.html

时间: 2024-10-08 05:30:29

Andrew Ng机器学习第一章——单变量线性回归的相关文章

机器学习 Machine Learning(by Andrew Ng)----第二章 单变量线性回归(Linear Regression with One Variable)

第二章 单变量线性回归(Linear Regression with One Variable) <模型表示(Model Representation)>                                                             <代价函数(Cost Function)>                                                          <梯度下降(Gradient Descent)

Andrew Ng机器学习第一章——初识机器学习

机器学习的定义 计算机程序从经验E中学习,解决某一任务T.进行某一性能度量P,通过P测定在T上的表现因E而提高. 简而言之:程序通过多次执行之后获得学习经验,利用这些经验可以使得程序的输出结果更为理想,就是机器学习. 主要的两类机器学习算法 监督学习和无监督学习 监督学习 定义:对于数据集中的每个样本,我们想要算法预测得出正确的答案.例如预测房子的价格.肿瘤良性或者恶性 回归问题:预测连续值的输出(房子的价格) 分类问题:预测离散值的输出(肿瘤的性质良或恶) 无监督学习 定义:给定的数据集,找可

Ng第二课:单变量线性回归(Linear Regression with One Variable)

二.单变量线性回归(Linear Regression with One Variable) 2.1  模型表示 2.2  代价函数 2.3  代价函数的直观理解 2.4  梯度下降 2.5  梯度下降的直观理解 2.6  梯度下降的线性回归 2.7  接下来的内容 2.1  模型表示 之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示: 我们将要用来描述这个回归问题的标记如下: m                代表训练集中实例的数量 x          

Stanford机器学习课程笔记——单变量线性回归和梯度下降法

Stanford机器学习课程笔记--单变量线性回归和梯度下降法 1. 问题引入 单变量线性回归就是我们通常说的线性模型,而且其中只有一个自变量x,一个因变量y的那种最简单直接的模型.模型的数学表达式为y=ax+b那种,形式上比较简单.Stanford的机器学习课程引入这个问题也想让我们亲近一下machine learning这个领域吧~吴恩达大神通过一个房屋交易的问题背景,带领我们理解Linear regression with one variable.如下: 不要看这个问题简答,大神就是大神

机器学习入门之单变量线性回归(上)——梯度下降法

在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回归系数的模型参数的线性组合.只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariate linear regression).——————维基百科 一直以来,这部分内容都是ML的敲门砖,吴恩达教授在他的课程中也以此为第一个例子,同时,本篇也参考了许多吴教授的内容. 在这里,我简单把

Stanford机器学习Week 1—单变量线性回归

本篇讲述以下内容: 单变量线性回归 代价函数 梯度下降 单变量线性回归 回顾下上节,在回归问题中,我们给定输入变量,试图映射到连续预期结果函数上从而得到输出.单变量线性回归就是从一个输入值预测一个输出值.输入/输出的对应关系就是一个线性函数. 下面是一个根据房屋面积预测房屋价格的例子. 假设有一个数据集,我们称作训练集,数据集包括房屋面积和房屋价格数据. x:表示输入变量,也叫特征变量. y:表示输出变量,也叫目标变量. (xi,yi):表示一个识训练样本,训练集的一行.i 表示 第 i 个训练

Andrew Ng机器学习(一):线性回归

1.什么是线性回归? 用线性关系去拟合输入和输出. 设输入为x,则输出y=ax+b. 对于多元的情况y=b×1+a1x1+a2x2+...+anxn. 用θ表示系数,可以写作: 其中,x0=1. 2.线性回归有什么用? 对于连续输入和输出的问题,如果线性回归可以较好的拟合输入和输出,那么可以用这个模型预测其它输入时的输出. 反过来想:如果线性回归可以较好的拟合输入和输出,那么说明输出和输入有很强的线性相关性,可以识别输入中的冗余信息. 3.怎么判断是否较好的拟合? 初步考虑,就是当使用模型时的输

机器学习门户网站——单变量线性回归

线性回归的概念.在高中的数学书出现了. 给你一些样本点,怎样找出一条直线,使得最逼近这些样本点. 给出一个样例:如果 x 是房子面积,y是房子价格.确定一条直线须要theta0和theta1. 给出x,我们就能够计算出房子的价格 h(x) = theta0+theta1*x 关键是怎样计算出theta0和theta1,也就是怎样找出这么一条直线呢? 在这里,引入一个概念,叫做cost function.m表示样本个数,也就是训练样本数目 这是一个square error.学过统计的应该常常见到

机器学习【第二篇】单变量线性回归

吴恩达机器学习笔记整理--单变量线性回归 通过模型分析,拟合什么类型的曲线. 一.基本概念 1.训练集 由训练样例(training example)组成的集合就是训练集(training set), 如下图所示,其中(x,y)是一个训练样本,训练集中每一行表示一个训练样本;(x^i,y^i)表示第i个训练样本. 2.假设函数h 使用某种学习算法对训练集的数据进行训练, 我们可以得到假设函数(Hypothesis Function), 如下图所示. 在房价的例子中,假设函数就是一个房价关于房子面