系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI,
点击star加星不要吝啬,星越多笔者越努力。
第5章 多入单出的单层神经网络
5.0 多变量线性回归问题
5.0.1 提出问题
问题:在北京通州,距离通州区中心15公里的一套93平米的房子,大概是多少钱?
房价预测问题,成为了机器学习的一个入门话题,著名的波士顿的房价数据及相关的比赛已经很多了,但是美国的房子都是独栋的,前院后院停车库游泳池等等参数非常多,初学者可能理解起来有困难。我们不妨用简化版的北京通州的房价来举例,感受一下房价预测的过程。
影响北京通州房价的因素有很多,居住面积、地理位置、朝向、学区房、周边设施、建筑年份等等,其中,面积和地理位置是两个比较重要的因素。地理位置信息一般采用经纬度方式表示,但是经纬度是两个特征值,联合起来才有意义,因此,我们把它转换成了到通州区中心的距离。
我们有1000个样本,每个样本有两个特征值,一个标签值,示例如表5-1。
表5-1 样本数据
样本序号 | 地理位置 | 居住面积 | 价格(万元) |
---|---|---|---|
1 | 10.06 | 60 | 302.86 |
2 | 15.47 | 74 | 393.04 |
3 | 18.66 | 46 | 270.67 |
4 | 5.20 | 77 | 450.59 |
... | ... | ... | ... |
- 特征值1 - 地理位置,统计得到:
- 最大值:21.96公里
- 最小值:2.02公里
- 平均值:12.13公里
- 特征值2 - 房屋面积,统计得到:
- 最大值:119平米
- 最小值:40平米
- 平均值:78.9平米
- 标签值 - 房价,单位为百万元:
- 最大值:674.37
- 最小值:181.38
- 平均值:420.64
这个数据是三维的,所以可以用两个特征值作为x和y,用标签值作为z,在xyz坐标中展示如表5-2。
表5-2 样本在三维空间的可视化
正向 | 侧向 |
---|---|
从正向看,很像一块草坪,似乎是一个平面。再从侧向看,和第4章中的直线拟合数据很像。所以,对于这种三维的线性拟合,我们可以把它想象成为拟合一个平面,这个平面会位于这块“草坪”的中位,把“草坪”分割成上下两块更薄的“草坪”,最终使得所有样本点到这个平面的距离的平方和最小。
5.0.2 多元线性回归模型
由于表中可能没有恰好符合15公里、93平米条件的数据,因此我们需要根据1000个样本值来建立一个模型,来解决预测问题。
通过图示,我们基本可以确定这个问题是个线性回归问题,而且是典型的多元线性回归,即包括两个或两个以上自变量的回归。多元线性回归的函数模型如下:
\[y=a_0+a_1x_1+a_2x_2+\dots+a_kx_k\]
具体化到房价预测问题,上面的公式可以简化成:
\[
z = x_1 \cdot w_1 + x_2 \cdot w_2 + b
\]
抛开本例的房价问题,对于一般的应用问题,建立多元线性回归模型时,为了保证回归模型具有优良的解释能力和预测效果,应首先注意自变量的选择,其准则是:
- 自变量对因变量必须有显著的影响,并呈密切的线性相关;
- 自变量与因变量之间的线性相关必须是真实的,而不是形式上的;
- 自变量之间应具有一定的互斥性,即自变量之间的相关程度不应高于自变量与因变量之因的相关程度;
- 自变量应具有完整的统计数据,其预测值容易确定。
5.0.3 解决方案
如果用传统的数学方法解决这个问题,我们可以使用正规方程,从而可以得到数学解析解,然后再使用神经网络方式来求得近似解,从而比较两者的精度,再进一步调试神经网络的参数,达到学习的目的。
我们不妨先把两种方式在这里做一个对比,读者阅读并运行代码,得到结果后,再回到这里来仔细体会表5-3中的比较项。
表5-3 两种方法的比较
方法 | 正规方程 | 梯度下降 |
---|---|---|
原理 | 几次矩阵运算 | 多次迭代 |
特殊要求 | \(X^TX\)的逆矩阵存在 | 需要确定学习率 |
复杂度 | \(O(n^3)\) | \(O(n^2)\) |
适用样本数 | \(m \lt 10000\) | \(m \ge 10000\) |
原文地址:https://www.cnblogs.com/woodyh5/p/12021704.html