[ch05-01] 正规方程法解决多变量线性回归问题

系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI
点击star加星不要吝啬,星越多笔者越努力。

5.1 正规方程解法

英文名是 Normal Equations。

对于线性回归问题,除了前面提到的最小二乘法可以解决一元线性回归的问题外,也可以解决多元线性回归问题。

对于多元线性回归,可以用正规方程来解决,也就是得到一个数学上的解析解。它可以解决下面这个公式描述的问题:

\[y=a_0+a_1x_1+a_2x_2+\dots+a_kx_k \tag{1}\]

5.1.1 简单的推导方法

在做函数拟合(回归)时,我们假设函数H为:

\[h(w,b) = b + x_1 w_1+x_2 w_2+...+x_n w_n \tag{2}\]

令\(b=w_0\),则:

\[h(w) = w_0 + x_1 \cdot w_1 + x_2 \cdot w_2+...+ x_n \cdot w_n\tag{3}\]

公式3中的x是一个样本的n个特征值,如果我们把m个样本一起计算,将会得到下面这个矩阵:

\[H(w) = X \cdot W \tag{4}\]

公式5中的X和W的矩阵形状如下:

\[
X =
\begin{pmatrix}
1 & x_{1,1} & x_{1,2} & \dots & x_{1,n} \1 & x_{2,1} & x_{2,2} & \dots & x_{2,n} \\dots \1 & x_{m,1} & x_{m,2} & \dots & x_{m,n}
\end{pmatrix} \tag{5}
\]

\[
W= \begin{pmatrix}
w_0 \w_1 \\dots \ w_n
\end{pmatrix} \tag{6}
\]

然后我们期望假设函数的输出与真实值一致,则有:

\[H(w) = X \cdot W = Y \tag{7}\]

其中,Y的形状如下:

\[
Y= \begin{pmatrix}
y_1 \y_2 \\dots \y_m
\end{pmatrix} \tag{8}
\]

直观上看,W = Y/X,但是这里三个值都是矩阵,而矩阵没有除法,所以需要得到X的逆矩阵,用Y乘以X的逆矩阵即可。但是又会遇到一个问题,只有方阵才有逆矩阵,而X不一定是方阵,所以要先把左侧变成方阵,就可能会有逆矩阵存在了。所以,先把等式两边同时乘以X的转置矩阵,以便得到X的方阵:

\[X^T X W = X^T Y \tag{9}\]

其中,\(X^T\)是X的转置矩阵,\(X^T X\)一定是个方阵,并且假设其存在逆矩阵,把它移到等式右侧来:

\[W = (X^T X)^{-1}{X^T Y} \tag{10}\]

至此可以求出W的正规方程。

5.1.2 复杂的推导方法

我们仍然使用均方差损失函数:

\[J(w,b) = \sum (z_i - y_i)^2 \tag{11}\]

把b看作是一个恒等于1的feature,并把z=XW计算公式带入,并变成矩阵形式:

\[J(w) = \sum (x_i w_i -y_i)^2=(XW - Y)^T \cdot (XW - Y) \tag{12}\]

对w求导,令导数为0,就是W的最小值解:

\[
\begin{aligned}
{\partial J(w) \over \partial w} &= {\partial \over \partial w}[(XW - Y)^T \cdot (XW - Y)] \&={\partial \over \partial w}[(X^TW^T - Y^T) \cdot (XW - Y)] \&={\partial \over \partial w}[(X^TXW^TW -X^TW^TY - Y^TXW + Y^TY)]
\end{aligned}
\tag{13}
\]

求导后:

第一项的结果是:\(2X^TXW\)

第二项和第三项的结果都是:\(X^TY\)

第四项的结果是:0

再令导数为0:

\[
J'(w)=2X^TXW - 2X^TY=0 \tag{14}
\]
\[
X^TXW = X^TY \tag{15}
\]
\[
W=(X^TX)^{-1}X^TY \tag{16}
\]

结论和公式10一样。

以上推导的基本公式可以参考第0章的公式60-69。

逆矩阵\((X^TX)^{-1}\)可能不存在的原因是:

  1. 特征值冗余,比如\(x_2=x^2_1\),即正方形的边长与面积的关系,不能做为两个特征同时存在
  2. 特征数量过多,比如特征数n比样本数m还要大

以上两点在我们这个具体的例子中都不存在。

5.1.3 代码实现

我们把表5-1的样本数据带入方程内。根据公式(5),我们应该建立如下的X,Y矩阵:

\[
X = \begin{pmatrix}
1 & 10.06 & 60 \1 & 15.47 & 74 \1 & 18.66 & 46 \1 & 5.20 & 77 \\dots \\end{pmatrix} \tag{17}
\]

\[
Y= \begin{pmatrix}
302.86 \393.04 \270.67 \450.59 \\dots \\end{pmatrix} \tag{18}
\]

根据公式(10):

\[W = (X^T X)^{-1}{X^T Y} \tag{10}\]

  1. X是1000x3的矩阵,X的转置是3x1000,\(X^TX\)生成(3x3)的矩阵
  2. \((X^TX)^{-1}\)也是3x3
  3. 再乘以\(X^T\),即(3x3)x(3x1000)的矩阵,变成3x1000
  4. 再乘以Y,Y是1000x1,所以(3x1000)x(1000x1)变成3x1,就是W的解,其中包括一个偏移值b和两个权重值w,3个值在一个向量里
if __name__ == '__main__':
    reader = SimpleDataReader()
    reader.ReadData()
    X,Y = reader.GetWholeTrainSamples()
    num_example = X.shape[0]
    one = np.ones((num_example,1))
    x = np.column_stack((one, (X[0:num_example,:])))
    a = np.dot(x.T, x)
    # need to convert to matrix, because np.linalg.inv only works on matrix instead of array
    b = np.asmatrix(a)
    c = np.linalg.inv(b)
    d = np.dot(c, x.T)
    e = np.dot(d, Y)
    #print(e)
    b=e[0,0]
    w1=e[1,0]
    w2=e[2,0]
    print("w1=", w1)
    print("w2=", w2)
    print("b=", b)
    # inference
    z = w1 * 15 + w2 * 93 + b
    print("z=",z)

5.1.4 运行结果

w1= -2.0184092853092226
w2= 5.055333475112755
b= 46.235258613837644
z= 486.1051325196855

我们得到了两个权重值和一个偏移值,然后得到房价预测值z=486万元。

至此,我们得到了解析解。我们可以用这个做为标准答案,去验证我们的神经网络的训练结果。

代码位置

ch05, Level1

原文地址:https://www.cnblogs.com/woodyh5/p/12028487.html

时间: 2024-11-06 11:32:37

[ch05-01] 正规方程法解决多变量线性回归问题的相关文章

[ch05-02] 用神经网络解决多变量线性回归问题

系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力 5.2 神经网络解法 与单特征值的线性回归问题类似,多变量(多特征值)的线性回归可以被看做是一种高维空间的线性拟合.以具有两个特征的情况为例,这种线性拟合不再是用直线去拟合点,而是用平面去拟合点. 5.2.1 定义神经网络结构 我们定义一个如图5-1所示的一层的神经网络,输入层为2或者更多,反正大于2了就没区别.这个一层的神经网络的特点是: 没有中间层,只

Machine Learning_Ng 第四讲 多变量线性回归

在第四讲中,主要学习了多变量线性回归(Linear Regression with Multiple Variables)的多维特征.多变量梯度下降.特征缩放.特征和多项式回归以及正规方程等. # 多维特征(Multiple Features) 为房价模型增加更多的特征,如房间楼层数等,则构成了一个含有多个变量的模型. 假设$h_\theta(x)=\theta_0+\theta_1*x_1+\theta_2*x_2+-+\theta_n*x_n$, 设x_0=1,则存在$h_\theta(x)

Machine Learning笔记(三) 多变量线性回归

Machine Learning笔记(三) 多变量线性回归 注:本文内容资源来自 Andrew Ng 在 Coursera上的 Machine Learning 课程,在此向 Andrew Ng 致敬. 一.多特征(Multiple Features) 笔记(二)中所讨论的房价问题,只考虑了房屋尺寸(Size)一个特征,如图所示: 这样只有单一特征的数据,往往难以帮助我们准确的预测房价走势.因此,考虑采集多个特征的数据值,往往能提升预测效果.例如,选取如下4个特征作为输入值时的情况: 对一些概念

【stanford 机器学习】学习笔记(2)--多变量线性回归(Linear Regression with Multiple Variables)

课程来自斯坦福大学吴恩达教授 machine learning: https://www.coursera.org/learn/machine-learning/home/welcome 多变量线性回归主要包括以下部分: 1) Multiple features(多维特征) 2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用) 3) Gradient descent in practice I: Feature Scaling(

机器学习:多变量线性回归

************************************** 注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的<机器学习>课程笔记.博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客.本系列博客包括线性回归.逻辑回归.神经网络.机器学习的应用和系统设计.支持向量机.聚类.将维.异常检测.推荐系统及大规模机器学习等内容. ************************************** 多变量线性回归 多

Stanford公开课机器学习---3.多变量线性回归 (Linear Regression with multiple variable)

3.多变量线性回归 (Linear Regression with multiple variable) 3.1 多维特征(Multiple Features) n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一个向量(vector). x(i)j代表特征矩阵中第 i 行的第 j 个特征,也就是第 i 个训练实例的第 j 个特征. 多维线性方程: hθ=θ0+θ1x+θ2x+...+θnx 这个公式中有 n+1 个参数和 n 个变量,为了使得公式能够简化一些,引入

机器学习——多变量线性回归

[一.多变量线性回归模型] 多变量线性回归是指输入为多维特征的情况,例如: 在上图中可看出房子的价格price由四个变量(size.number of bedrooms.number of floors .age of home)决定,为了能够预测给定条件(四个变量)下的房子的价格(y),我们需要建立相应的线性回归模型. 假设有n个变量,则相应的多变量线性回归模型如下: 注意上图中的x是指一个训练样本,即每个训练样本都是一个(n+1)维向量(包含附加的x0=1) [二.代价函数] 多变量线性回归

Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学习系统设计.SVM(Support Vector Machines 支持向量机).聚类.降维.异常检测.大规模机器学习等章节.所有内容均来自Standford公开课machine

机器学习(3)——多变量线性回归

[一.多变量线性回归模型] 多变量线性回归是指输入为多维特征的情况.比如: 在上图中可看出房子的价格price由四个变量(size.number of bedrooms.number of floors .age of home)决定.为了能够预測给定条件(四个变量)下的房子的价格(y),我们须要建立对应的线性回归模型. 如果有n个变量,则对应的多变量线性回归模型例如以下: 注意上图中的x是指一个训练样本,即每一个训练样本都是一个(n+1)维向量(包括附加的x0=1) [二.代价函数] 多变量线