一、正则化应用于基于梯度下降的线性回归
上一篇文章我们说过,通过正则化的思想,我们将代价函数附加了一个惩罚项,变成如下的公式:
那么我们将这一公式套用到线性回归的代价函数中去。我们说过,一般而言θ0我们不做处理,所以我们把梯度下降计算代价函数最优解的过程转化为如下两个公式。
我们通过j>0的式子,能够分析得出,θj 我们可以提取公因子,即将上式变成:
由于θj的系数小于1,可以看出, 正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的
基础上令 θ 值减少了一个额外的值。 那么至此,上述公式即为正则化应用于线性回归梯度下降的公式。
二、正则化应用于基于正规方程的线性回归
回顾一下正规方程,正规方程及通过巧妙的数学运算推到而来的,不需要复杂迭代计算的矩阵公式。
我们将其分为特征变量矩阵X,以及输出结果向量y。其中X矩阵中的每一项元素都含有n个特征变量,同时需要在第一列补充适合 θ0的值,假设共有m组数据,也就是X,y的行数为m行,那么X矩阵便是m×(n+1)的矩阵,y则是m×1的向量。
由此,我们能够推导出如下的正规方程,以此来求解θ向量:
通过正则化,我们将正规方程转化为如下式子:其中的矩阵为(n+1)×(n+1)的。
这样的变化,可以使得整个矩阵是可逆的,不会存在不可逆的情况。
三、正则化应用于逻辑回归
与上面的线性回归相同,只不过假设函数hx变成了sigmoid函数。
Regularization in Linear Regression & Logistic Regression
时间: 2024-10-06 15:56:56