过度拟合问题

  • Underfitting (欠拟合)
  • Overfitting (过拟合)
  • 解决拟合的方法
  • 线性回归正则化

欠拟合/高偏差(high bias)

过拟合/高方差(high variance)

过拟合与欠拟合也可以用 Bias 与 Variance 的角度来解释,欠拟合会导致高 Bias ,过拟合会导致高 Variance ,所以模型需要在 Bias 与 Variance 之间做出一个权衡。

特征过多但是训练集很小,就和容易出现过度拟合的问题。

过拟合的缺点就是不能够很好地泛化到新样本。

解决欠拟合的方法:

添加新的域特有特征和更多特征笛卡尔积,并更改特征处理所用的类型 (例如,增加 n 元大小)

减少使用的正则化数量

解决过拟合的方法:

特征选择:考虑使用更少的特征组合,减少 n 元大小。

模型选择算法

增加使用的正则化数量。

线性回归正则化

正则化项即罚函数,该项对模型向量进行“惩罚”,从而避免单纯最小二乘问题的过拟合问题。


对于线性回归(的求解),我们之前运用了两种学习算法,一种基于梯度下降,一种基于正规方程。

1

梯度下降,如下:

2

正规方程,如下:

3

现在考虑 M(即样本量), 比 N(即特征的数量)小或等于N。

通过之前的博文,我们知道如果你只有较少的样本,导致特征数量大于样本数量,那么矩阵 XTX 将是不可逆矩阵或奇异(singluar)矩阵,或者用另一种说法是这个矩阵是退化(degenerate)的,那么我们就没有办法使用正规方程来求出 θ 。

幸运的是,正规化也为我们解决了这个问题,具体的说只要正则参数是严格大于零,实际上,可以证明如下矩阵:

将是可逆的。因此,使用正则还可以照顾任何 XTX 不可逆的问题。

所以,你现在知道如何实现岭回归,利用它,你就可以避免过度拟合,即使你在一个相对较小的训练集里有很多特征。这应该可以让你在很多问题上更好的运用线性回归。

在接下来的视频中,我们将把这种正则化的想法应用到 Logistic 回归,这样我们就可以让 logistic 回归也避免过度拟合,从而表现的更好。

逻辑回归正则化

Regularized Logistic Regression 实际上与 Regularized Linear Regression 是十分相似的。

同样使用梯度下降:

原文地址:https://www.cnblogs.com/CuteyThyme/p/10631920.html

时间: 2024-08-13 13:06:03

过度拟合问题的相关文章

避免过度拟合之正则化(转)

避免过度拟合之正则化 “越少的假设,越好的结果” 商业情景: 当我们选择一种模式去拟合数据时,过度拟合是常见问题.一般化的模型往往能够避免过度拟合,但在有些情况下需要手动降低模型的复杂度,缩减模型相关属性. 让我们来考虑这样一个模型.在课堂中有10个学生.我们试图通过他们过去的成绩预测他们未来的成绩.共有5个男生和5个女生.女生的平均成绩为60而男生的平均成绩为80.全部学生的平均成绩为70. 现在有如下几种预测方法: 1 用70分作为全班成绩的预测 2 预测男生的成绩为80分,而女生的成绩为6

过度拟合(overfitting)

我们之前解决过一个理论问题:机器学习能不能起作用?现在来解决另一个理论问题:过度拟合. 正如之前我们看到的,很多时候我们必须进行nonlinear transform.但是我们又无法确定Q的值.Q过小,那么Ein会很大:Q过大,就会出现过度拟合问题.如下图所示: 那么overfitting具体受什么因素影响呢? 现在我们又两个例子: 第一个例子的数据来源是:一个10-th的目标函数+noise:第二个例子的数据来源是:一个50-th的目标函数.现在我们用2-th函数(H2)和10-th函数(H1

避免过度拟合之正则化

避免过度拟合之正则化 “越少的假设,越好的结果” 商业情景: 当我们选择一种模式去拟合数据时,过度拟合是常见问题.一般化的模型往往能够避免过度拟合,但在有些情况下需要手动降低模型的复杂度,缩减模型相关属性. 让我们来考虑这样一个模型.在课堂中有10个学生.我们试图通过他们过去的成绩预测他们未来的成绩.共有5个男生和5个女生.女生的平均成绩为60而男生的平均成绩为80.全部学生的平均成绩为70. 现在有如下几种预测方法: 1 用70分作为全班成绩的预测 2 预测男生的成绩为80分,而女生的成绩为6

overfitting(过度拟合)的概念

来自:http://blog.csdn.net/fengzhe0411/article/details/7165549 最近几天在看模式识别方面的资料,多次遇到“overfitting”这个概念,最终觉得以下解释比较容易接受,就拿出来分享下. overfittingt是这样一种现象:一个假设在训练数据上能够获得比其他假设更好的拟合,但是在训练数据外的数据集上却不能很好的拟合数据.此时我们就叫这个假设出现了overfitting的现象.出现这种现象的主要原因是训练数据中存在噪音或者训练数据太少.而

机器学习--过度拟合

过度拟合(overfitting)是指数据模型在训练集里表现非常满意,但是一旦应用到真实业务实践时,效果大打折扣:换成学术化语言描述,就是模型对样本数据拟合非常好,但是对于样本数据外的应用数据,拟合效果非常差.在我们数据分析挖掘业务实践中,就是"模型搭建时表现看上去非常好,但是应用到具体业务实践时,模型效果显著下降,包括准确率.精度.效果等等显著下降". 过拟合的第一个原因,就是建模样本抽取错误,包括(但不限于)样本数量太少,抽样方法错误,抽样时没有足够正确考虑业务场景或业务特点,等等

23-过犹不及:正则化方法防止过度拟合

有时我想:如果我能复制好几份,每个自己都活在不同的平行宇宙多好.人都有永恒不朽的愿望,也有尽善尽美的追求.我们的征途是星辰大海,然而现实中常在泥潭里打滚--想起了一个笑话:Arguing with an Engineer is a lot like wrestling in the mud with a pig, after a couple of hours your realize the pig likes it.很好的自我写照.现实让人焦头烂额,但一味地苛求自己并不是办法,往往还会事倍功

过度拟合(overfilting)

过拟合概念:是指分类器能够百分之百的正确分类样本数据(训练集中的样本数据),对训练集以外的数据却不能够正确分类. 原因:1:模型(算法)太过复杂,比如神经网络,算法太过精细复杂,规则太过严格,以至于任何与样本数据稍有不同的文档它全都认为不属于这个类别,即在训练样本中拟合的很好,在训练样本外拟合的很差,过拟合最早就是从神经网络中发现出来的.策略树深度过深.回归参数过多,都会造成过拟合. 2:训练集中存在噪音,为了拟合异常点,偏离了正常分布. 3:训练集太小或不具有代表性 训练集与测试集互不相交,前

Machine Learning — 关于过度拟合(Overfitting)

机器学习是在模型空间中选择最优模型的过程,所谓最优模型,及可以很好地拟合已有数据集,并且正确预测未知数据. 那么如何评价一个模型的优劣的,用代价函数(Cost function)来度量预测错误的程度.代价函数有很多中,在Ng的视频中,Linear Regression用的是平方代价函数: Logistic Regression 用的是对数似然代价函数: 对于给定的含m个样本的数据集,其平均损失称为经验风险. 损失函数越小,模型就越好. 我们来分析那个房价预测问题,假设房价面积A,楼层L,房间数N

机器学习:过拟合与正则化

过拟合的定义:过拟合是指模型过度拟合训练集, 学到训练集中过多的噪音或随机波动,导致模型泛化能力差的情况.它表现为在训练集上表现良好,在测试集上表现差. 解决方法:1.重新清洗数据,导致过拟合的一个原因也有可能是数据不纯导致的,如果出现了过拟合就需要我们重新清洗数据. 2.数据集扩增(data augmentation)  2.1从数据源头采集更多数据  2.2复制原有数据并加上随机噪声  2.3重采样 3.采用dropout方法.dropout方法在训练时删除一定比例的神经元, 让这些神经元不