岭回归——减少过拟合问题

什么是过拟合?
在训练假设函数模型h时,为了让假设函数总能很好的拟合样本特征对应的真实值y,从而使得我们所训练的假设函数缺乏泛化到新数据样本能力。

怎样解决过拟合

过拟合会在变量过多同时过少的训练时发生,我们有两个选择,一是减少特征的数量,二是正则化,今天我们来重点来讨论正则化,它通过设置惩罚项让参数θ足够小,要让我们的代价函数足够小,就要让θ足够小,由于θ是特征项前面的系数,这样就使特征项趋近于零。岭回归与Lasso就是通过在代价函数后增加正则化项。

多元线性回归损失函数:

岭回归回归代价函数:

岭回归的原理

我们从矩阵的角度来看。机器学习的核心在在于求解出θ使J(θ)最小。怎样找到这个θ,经典的做法是使用梯度下降通过多次迭代收敛到全局最小值,我们也可以用标准方程法直接一次性求解θ的最优值。当回归变量X不是列满秩时, XX‘的行列式接近于0,即接近于奇异,也就是某些列之间的线性相关性比较大时,传统的最小二乘法就缺乏稳定性,模型的可解释性降低。因此,为了解决这个问题,需要正则化删除一些相关性较强特征。

标准方程法:

加上正则化后:

这里,λ>=0是控制收缩量的复杂度参数:λ的值越大,收缩量越大,共线性的影响越来越小。在不断增大惩罚函数系数的过程中,画出估计参数0(λ)的变化情况,即为岭迹。通过岭迹的形状来判断我们是否要剔除掉该特征(例如:岭迹波动很大,说明该变量参数有共线性)。


步骤:1.首先要对数据进行一些预处理,尽量把保持所有特征在一个范围内,使用特征缩放和均值归一化来处理特征值是很有必要的,否则,不同特征的特征值大小是没有比较性的。
2.其次构建惩罚函数,针对不同的λ,画出岭迹图。
3.根据岭迹图,选择要剔除那些特征。

一个sckit-learn的example

将岭系数绘制为正则化的函数
本例显示了共线性对估计量系数的影响。岭回归是本例中使用的估计量。 每种颜色表示系数矢量的不同特征,并且这是作为正则化参数的函数显示的。这个例子还显示了将岭回归应用于高度病态的基质的有用性。对于这样的矩阵,目标变量的轻微变化会导致计算权重的巨大差异。在这种情况下,设置一定的正则化(λ)来减少这种变化(噪音)是有用的。当λ很大时,正则化效应支配平方损失函数,并且系数趋于零。在路径的末尾,由于λ趋于零,并且解决方案倾向于普通最小二乘,所以系数显示出大的振荡。 在实践中,需要调整λ以使两者之间保持平衡。

import numpy as np
import matplotlib.pyplot as plt
from sklearn import linear_model

#X为一个10*10的矩阵
X = 1. / (np.arange(1, 11) + np.arange(0, 10)[:, np.newaxis])
y = np.ones(10)

##############################################################################
#设置不同的lambda和参数

n_lambda = 200
lambda = np.logspace(-10, -2, n_lambda)

coefs = []
for a in lambda:
    ridge = linear_model.Ridge(lambda=a, fit_intercept=False)
    ridge.fit(X, y)
    coefs.append(ridge.coef_)

# #############################################################################
#显示绘制结果

ax = plt.gca()

ax.plot(lambda, coefs)
ax.set_xscale(‘log‘)
ax.set_xlim(ax.get_xlim()[::-1])  # reverse axis
plt.xlabel(r‘$\lambda$‘)
plt.ylabel(‘weights‘)
plt.title(‘Ridge coefficients as a function of the regularization‘)
plt.axis(‘tight‘)
plt.show()

结果:



感谢您的阅读,如果您喜欢我的文章,欢迎关注我哦

原文地址:http://blog.51cto.com/13820241/2133425

时间: 2024-10-10 12:44:42

岭回归——减少过拟合问题的相关文章

岭回归和lasso回归(转)

回归和分类是机器学习算法所要解决的两个主要问题.分类大家都知道,模型的输出值是离散值,对应着相应的类别,通常的简单分类问题模型输出值是二值的,也就是二分类问题.但是回归就稍微复杂一些,回归模型的输出值是连续的,也就是说,回归模型更像是一个函数,该函数通过不同的输入,得到不同的输出. 那么,什么是线性回归,什么是非线性回归呢? 线性回归与非线性回归 前面说了,我们的回归模型是一个函数是吧,那么线性回归就是模型函数是由若干个基本函数线性加权得到的函数.也就是每一个基本函数前面都有一个权值来调和自己对

线性回归、岭回归和LASSO回归

尽管有些内容还是不懂,先截取的摘录. 1.变量选择问题:从普通线性回归到lasso 使用最小二乘法拟合的普通线性回归是数据建模的基本方法.其建模要点在于误差项一般要求独立同分布(常假定为正态)零均值.t检验用来检验拟合的模型系数的显著性,F检验用来检验模型的显著性(方差分析).如果正态性不成立,t检验和F检验就没有意义. 对较复杂的数据建模(比如文本分类,图像去噪或者基因组研究)的时候,普通线性回归会有一些问题:(1)预测精度的问题 如果响应变量和预测变量之间有比较明显的线性关系,最小二乘回归会

岭回归与Lasso回归

线性回归的一般形式 过拟合问题及其解决方法 问题:以下面一张图片展示过拟合问题 解决方法:(1):丢弃一些对我们最终预测结果影响不大的特征,具体哪些特征需要丢弃可以通过PCA算法来实现:(2):使用正则化技术,保留所有特征,但是减少特征前面的参数θ的大小,具体就是修改线性回归中的损失函数形式即可,岭回归以及Lasso回归就是这么做的. 岭回归与Lasso回归 岭回归与Lasso回归的出现是为了解决线性回归出现的过拟合以及在通过正规方程方法求解θ的过程中出现的x转置乘以x不可逆这两类问题的,这两种

最小二乘回归,岭回归,Lasso回归,弹性网络

普通最小二乘法 理论: 损失函数: 权重计算: 1.对于普通最小二乘的系数估计问题,其依赖于模型各项的相互独立性. 2.当各项是相关的,且设计矩阵 X的各列近似线性相关,那么,设计矩阵会趋向于奇异矩阵,这会导致最小二乘估计对于随机误差非常敏感,产生很大的方差. 例如,在没有实验设计的情况下收集到的数据,这种多重共线性(multicollinearity)的情况可能真的会出现. 使用: from sklearn import datasets, linear_model regr = linear

sklearn之岭回归

''' 岭回归: 普通线性回归模型使用基于梯度下降的最小二乘法,在最小化损失函数的前提下,寻找最优模型参数, 在此过程中,包括少数异常样本在内的全部训练数据都会对最终模型参数造成程度相等的影响, 异常值对模型所带来影响无法在训练过程中被识别出来.为此,岭回归在模型迭代过程所依据的损失函数中增加了正则项, 以限制模型参数对异常样本的匹配程度,进而提高模型面对多数正常样本的拟合精度. 岭回归的目的: 1>普通线性回归无法识别或者避免异常样本对模型参数的影响,导致在预测时效果查(预测结果偏向于异常样本

从最小二乘到岭回归(Ridge Regression)的深刻理解

岭回归是带二范数惩罚的最小二乘回归.ols方法中,X'X不能为0.当变量之间的相关性较强时,X'X很小,甚至趋于0.岭回归是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息.降低精度为代价获得回归系数更为符合实际.更可靠的回归方法,对病态数据的拟合要强于OLS.本质是在自变量信息矩阵的主对角线元素上人为地加入一个非负因子.即:当λ=0时,b(λ)=b.b(λ)中各元素bi(λ)的绝对值均趋于不断变小(由于自变数间的相关,个别

R语言之岭回归

岭回归可以用来解决过度拟合的问题 一.线性模型的岭回归可使用ridge包中的linearRidge函数和MASS包中的lm.ridge函数> library(RSADBE)> data(OF)> LM <-lm.ridge(Y~poly(X,3),data = as.data.frame(OF),lambda=c(0,0.5,1,1.5,2,5,10,30))lambda为指定值 二.Logistic回归模型的岭回归可以使用ridge包中的logisticRidge函数拟合岭回归.

多重共线性的解决方法之——岭回归与LASSO

? ? ? 多元线性回归模型 的最小二乘估计结果为 如果存在较强的共线性,即 中各列向量之间存在较强的相关性,会导致的从而引起对角线上的 值很大 并且不一样的样本也会导致参数估计值变化非常大.即参数估计量的方差也增大,对参数的估计会不准确. 因此,是否可以删除掉一些相关性较强的变量呢?如果p个变量之间具有较强的相关性,那么又应当删除哪几个是比较好的呢? 本文介绍两种方法能够判断如何对具有多重共线性的模型进行变量剔除.即岭回归和LASSO(注:LASSO是在岭回归的基础上发展的) ? ? 思想:

python Ridge 回归(岭回归)的原理及应用

岭回归的原理: 首先要了解最小二乘法的回归原理 设有多重线性回归模型   y=Xβ+ε  ,参数β的最小二乘估计为 当自变量间存在多重共线性,|X'X|≈0时,设想|X'X|给加上一个正常数矩阵(k>0) 那么|X'X|+kI 接近奇异的程度就会比接近奇异的程度小得多.考虑到变量的量纲问题, 先要对数据标准化,标准化后的设计矩阵仍用X表示,定义称为的岭回归估计,其中, k称为岭参数.由于假设X已经标准化,所以就是自变量样本相关阵.y可以标准化也可以未标准化, 如果y也经过标准化,那么计算的实际是