机器学习——多变量线性回归

【一、多变量线性回归模型】

多变量线性回归是指输入为多维特征的情况,例如:

在上图中可看出房子的价格price由四个变量(size、number of bedrooms、number of floors 、age of home)决定,为了能够预测给定条件(四个变量)下的房子的价格(y),我们需要建立相应的线性回归模型。

假设有n个变量,则相应的多变量线性回归模型如下:

注意上图中的x是指一个训练样本,即每个训练样本都是一个(n+1)维向量(包含附加的x0=1)

【二、代价函数】

多变量线性回归的代价函数如下:

其中x(i)代表第i个样本

【三、梯度下降法寻找最佳theta】

下面列出单变量线性回归梯度下降法(左)多变量线性回归梯度下降法(右)

其中α为学习率。

【梯度下降法的两个细节处理】:

1. Feature Normalization

By looking at the values, note that house sizes are about 1000 times the number of bedrooms. When features differ by orders of magnitude, first performing feature scaling can make gradient descent converge much more quickly。

也就是说当特征之间相差很大时,例如房子的大小与卧室的数量,这样会导致梯度下降收敛比较慢,如下图(左边)所示,当对特征进行正规后,梯度下降收敛变快,如下图(右边)所示。

正规化方法可以使用mean value and the standard deviation 法,或者其他方法。

2. Selecting learning rates

学习率的正确选择应该保证每一步迭代后cost function都是下降的,如下图所示:

如果学习率α过大,可能会使得代价函数上升,而不是一直呈现下降趋势,如下图。

但是学习率α过小,那个梯度下降的收敛速度会太慢。

【选取学习率的方法】

【四、正规方程解最佳theta】

,j=0,1,…………n

注意出现下列情况时:

这时可以进行冗余feature的删除

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-09-07 01:04:36

机器学习——多变量线性回归的相关文章

Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学习系统设计.SVM(Support Vector Machines 支持向量机).聚类.降维.异常检测.大规模机器学习等章节.所有内容均来自Standford公开课machine

机器学习:多变量线性回归

************************************** 注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的<机器学习>课程笔记.博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客.本系列博客包括线性回归.逻辑回归.神经网络.机器学习的应用和系统设计.支持向量机.聚类.将维.异常检测.推荐系统及大规模机器学习等内容. ************************************** 多变量线性回归 多

【stanford 机器学习】学习笔记(2)--多变量线性回归(Linear Regression with Multiple Variables)

课程来自斯坦福大学吴恩达教授 machine learning: https://www.coursera.org/learn/machine-learning/home/welcome 多变量线性回归主要包括以下部分: 1) Multiple features(多维特征) 2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用) 3) Gradient descent in practice I: Feature Scaling(

机器学习(3)——多变量线性回归

[一.多变量线性回归模型] 多变量线性回归是指输入为多维特征的情况.比如: 在上图中可看出房子的价格price由四个变量(size.number of bedrooms.number of floors .age of home)决定.为了能够预測给定条件(四个变量)下的房子的价格(y),我们须要建立对应的线性回归模型. 如果有n个变量,则对应的多变量线性回归模型例如以下: 注意上图中的x是指一个训练样本,即每一个训练样本都是一个(n+1)维向量(包括附加的x0=1) [二.代价函数] 多变量线

Stanford公开课机器学习---3.多变量线性回归 (Linear Regression with multiple variable)

3.多变量线性回归 (Linear Regression with multiple variable) 3.1 多维特征(Multiple Features) n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一个向量(vector). x(i)j代表特征矩阵中第 i 行的第 j 个特征,也就是第 i 个训练实例的第 j 个特征. 多维线性方程: hθ=θ0+θ1x+θ2x+...+θnx 这个公式中有 n+1 个参数和 n 个变量,为了使得公式能够简化一些,引入

[ch05-00] 多变量线性回归问题

系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力. 第5章 多入单出的单层神经网络 5.0 多变量线性回归问题 5.0.1 提出问题 问题:在北京通州,距离通州区中心15公里的一套93平米的房子,大概是多少钱? 房价预测问题,成为了机器学习的一个入门话题,著名的波士顿的房价数据及相关的比赛已经很多了,但是美国的房子都是独栋的,前院后院停车库游泳池等等参数非常多,初学者可能理解起来有困难.我们不妨用简化版的

Ng第四课:多变量线性回归(Linear Regression with Multiple Variables)

4.1  多维特征 4.2  多变量梯度下降 4.3  梯度下降法实践 1-特征缩放 4.4  梯度下降法实践 2-学习率 4.5  特征和多项式回归 4.6  正规方程 4.7  正规方程及不可逆性(可选) 4.1  多维特征 目前为止,探讨了单变量/特征的回归模型,现在对房价模型增加更多的特征 增添更多特征后,引入一系列新的注释: n  代表特征的数量 代表第 i  个训练实例,是特征矩阵中的第 i 行,是一个向量(vector).    (图中给转置了) 代表特征矩阵中第 i 行的第j 个

Machine Learning笔记(三) 多变量线性回归

Machine Learning笔记(三) 多变量线性回归 注:本文内容资源来自 Andrew Ng 在 Coursera上的 Machine Learning 课程,在此向 Andrew Ng 致敬. 一.多特征(Multiple Features) 笔记(二)中所讨论的房价问题,只考虑了房屋尺寸(Size)一个特征,如图所示: 这样只有单一特征的数据,往往难以帮助我们准确的预测房价走势.因此,考虑采集多个特征的数据值,往往能提升预测效果.例如,选取如下4个特征作为输入值时的情况: 对一些概念

deep learning 练习 多变量线性回归

多变量线性回归(Multivariate Linear Regression) 作业来自链接:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex3/ex3.html 这次的多变量线性回归问题,输入特征向量X是二维的,一个维度表示房间面积,一个维度表示房间数量,输出Y是房子的价格. 这一次试着自己找了一下合适的学习速率和迭代次数 合适的学习速率通过看损失