Andrew Ng机器学习-Linear Regression with one variable

这一讲主要是针对单变量的线性回归来讲两个基本概念:损失函数(cost function)、梯度下降(Gradient Descent)

1 Cost Function

定义如下:

左图为cost function的定义。右边为只有一个参数的h(x)的情况。

cost function的作用的评价一个回归函数好坏用的,具体来说就是评价回归函数h(x)的参数选对没。

这里J(theta)也可以称作squared error function。这里把J(theta)定义为平方误差的形式主要是为了后面求偏导数方便与分母约分。

上面的例子中h()函数有两个参数,为了方便理解,我们把theta0=0,此时只有一个可以的参数theta1。下图坐标的两条直线就是theta1取0和1时的情况。

上面图右边部分是theta0=0时损失函数J(theta1)随theta1变化而得到的不同的值。可以看到这个J(theta1)的形状为U型,当theta1时,J()取得最小值。

当theta0不为零的时候,cost function有两个变量控制它的值,此时的三维图结构如下图,下图也叫bowl-shape function(看去来像碗)。

当把bowl shape function中J()值相等时对应的theta0 theta1画出来,就得到下图的,下图右边中一条线上的J()值是相等的,类似于等高线。

2 梯度下降Gradient Descent

回顾一下之前的Cost function,我们的目标是式cost function的值最小化。所以可以通过不断地改变theta0、theta1来实现。如下图的描述所示。

梯度下降更直观的理解就是随便在一个山上找个点,然后从这个点开始一直往低的地方走,这样总能到达一个局部的最低点。形象的描述如下

下面的梯度下降的具体算法,核心思想就是不断地迭代theta0和theta1的值以使cost function的值最小。

注意里面的alpha,这里alpha越大表示每次迭代的幅度大。可以理解为跨的步子大。

具体应用时,关于梯度下降需要特别主要的是:alpha在应用的过程中不需要改变大小,但是每次下降的幅度会越来越小,原因是求得的偏导数(梯度)会逐渐变下。从下图右边的部分可以很清楚的看到。

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-08 21:19:13

Andrew Ng机器学习-Linear Regression with one variable的相关文章

机器学习 Machine Learning(by Andrew Ng)----第二章 单变量线性回归(Linear Regression with One Variable)

第二章 单变量线性回归(Linear Regression with One Variable) <模型表示(Model Representation)>                                                             <代价函数(Cost Function)>                                                          <梯度下降(Gradient Descent)

机器学习 (一) 单变量线性回归 Linear Regression with One Variable

文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang和 JerryLead 的个人笔记,为我做个人学习笔记提供了很好的参考和榜样. § 1.  单变量线性回归 Linear Regression with One Variable 1. 代价函数Cost Function 在单变量线性回归中,已知有一个训练集有一些关于x.y的数据(如×所示),当我们的预测值

Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学习系统设计.SVM(Support Vector Machines 支持向量机).聚类.降维.异常检测.大规模机器学习等章节.所有内容均来自Standford公开课machine

Ng第二课:单变量线性回归(Linear Regression with One Variable)

二.单变量线性回归(Linear Regression with One Variable) 2.1  模型表示 2.2  代价函数 2.3  代价函数的直观理解 2.4  梯度下降 2.5  梯度下降的直观理解 2.6  梯度下降的线性回归 2.7  接下来的内容 2.1  模型表示 之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示: 我们将要用来描述这个回归问题的标记如下: m                代表训练集中实例的数量 x          

机器学习笔记1——Linear Regression with One Variable

Linear Regression with One Variable Model Representation Recall that in *regression problems*, we are taking input variables and trying to map the output onto a *continuous* expected result function. Linear regression with one variable is also known

Stanford公开课机器学习---2.单变量线性回归(Linear Regression with One Variable)

单变量线性回归(Linear Regression with One Variable) 2.1 模型表达(Model Representation) m 代表训练集中实例的数量 x 代表特征/输入变量 y 代表目标变量/输出变量 (x,y) 代表训练集中的实例 (x(i),y(i) ) 代表第 i 个观察实例 h 代表学习算法的解决方案或函数也称为假设(hypothesis) 单变量线性回归:只含有一个特征/输入变量 x hθ=θ0+θ1x 2.2 代价函数(Cost Function) 目标

Stanford公开课机器学习---3.多变量线性回归 (Linear Regression with multiple variable)

3.多变量线性回归 (Linear Regression with multiple variable) 3.1 多维特征(Multiple Features) n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一个向量(vector). x(i)j代表特征矩阵中第 i 行的第 j 个特征,也就是第 i 个训练实例的第 j 个特征. 多维线性方程: hθ=θ0+θ1x+θ2x+...+θnx 这个公式中有 n+1 个参数和 n 个变量,为了使得公式能够简化一些,引入

Machine Learning - II. Linear Regression with One Variable (Week 1)

http://blog.csdn.net/pipisorry/article/details/43115525 机器学习Machine Learning - Andrew NG courses学习笔记 单变量线性回归Linear regression with one variable 模型表示Model representation 例子: 这是Regression Problem(one of supervised learning)并且是Univariate linear regressi

Machine Learning:Linear Regression With One Variable

Machine Learning:Linear Regression With One Variable 机器学习可以应用于计算机视觉,自然语言处理,数据挖掘等领域,可以分为监督学习(Supervised Learning),无监督学习(Unsupervised Learning),强化学习(Reinforcement Learning)等. 首先我们从一个简单的监督学习入手:假如给我们一组训练集(在这里就是Size和Price),我们如何才能建立一个可以预测房价的模型呢? 这里(x,y)称为一