机器学习之模型评估与选择

2.1 经验误差与过拟合

  基本概念:

    错误率:分类错误数/总样本数

    训练误差/经验误差:学习器在训练集上所产生的误差

    泛化误差:学习器在测试集上产生的误差

2.2 评估方法

  在实际应用中会有多种不同的算法进行选择,对于不同的问题,我们该选择用哪种学习算法和参数配置,是机器学习中的模型选择。无法直接获得泛化误差,训练误差由于过拟合现象的存在也不适合作为标准,我们如何对模型进行评估和选择。

  从训练集中随机获取测试集,测试集和训练集互斥。通过对D进行适当的处理,从中产生出训练集S和测试集T,下面介绍几种常见的做法。

  2.1 留出法 (2/3~4/5)

    注意:避免由于数据划分过程引入额外的偏差二造成对结果的影响

    方法:分层采样(针对不同的类别分别进行采样)

       若干次的随机重复划分进行评估,取平均值。

  2.2 交叉验证法(10次10折)

    方法:将数据集划分为k个大小相似的互斥子集,然后用k-1作为训练集,剩下一个作为测试集

    注意:10次随机重新采样

  2.3 自助法

    方法:有放回的进行抽取样本数量个大小

    注意:自助法产生的数据改变了初始数据集的分布,这就引入估计偏差,因此在初始数据量足够时,留出法和交叉验证呢法更加常用些。

2.3 性能度量

  衡量模型的泛化能力,就是性能度量。在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评判结果。好坏是相对的,不仅取决于算法和数据同时还取决任务需求。

  错误率:分类错误的样本占总体样本。

  查全率(recall):判断正例,占所有正例

  查准率(precision):判断为正例中,判断正确占比

  P-R曲线(面积)

    根据学习的预测结果对样例进行排序,排在最前面的学习器是“最可能”为正例样本,排在后面是学习器认为“最不可能的”,按顺序作为正例进行预测,计算precision 和 recall,并作为横坐标和纵坐标,显示出对应的P-R图。

  利用平衡点(Break-Even Point, BEP)进行比较,获取方式为和直线y=x和P-R曲线的交点。

  F1:基于查准率和查全率的调和平均:

  FB:表达对查全率和查准率不同偏好的度量:

  对上述评估方法(留存法,交叉验证法,)我能能够得到多个混淆矩阵。通常有两种做法一种是“宏F1”对各个混淆矩阵求解后整体求平均。另一个是“微F1”先对混淆矩阵求平均然后再计算F1的值。

  ROC和AUC

  ROC(Receiver Operating Characteristic)“受试者工作特征”

时间: 2024-10-11 17:36:55

机器学习之模型评估与选择的相关文章

机器学习:模型评估和选择

2.1 经验误差与拟合 精度(accuracy)和错误率(error rate):精度=1-错误率 训练误差(training error)或经验误差(empirical error) 泛化误差(generalization error) 过拟合(overfitting)和欠拟合(underfitting) 过拟合:小明脸上一个伤口,机器人为没上伤口才是小明,过分在意无关细节,导致该筛的没筛到 欠拟合:身高170就是小明,结果小明好几个 2.2 评估方法 2.2.1 留出法(hold-out)

机器学习笔记(二)模型评估与选择

2.模型评估与选择 2.1经验误差和过拟合 不同学习算法及其不同参数产生的不同模型,涉及到模型选择的问题,关系到两个指标性,就是经验误差和过拟合. 1)经验误差 错误率(errorrate):分类错误的样本数占样本总数的比例.如果在m个样本中有a个样本分类错误,则错误率E=a/m,相应的,1-a/m称为精度(accuracy),即精度=1-错误率. 误差(error):学习器的实际预测输出和样本的真实输出之间的差异.训练误差或经验误差:学习器在训练集上的误差:泛化误差:学习器在新样本上的误差.

【机器学习 第2章 学习笔记】模型评估与选择

1.训练误差:学习器在训练集上的误差,也称“经验误差” 2.泛化误差:学习器在新样本上的误差 显然,我们的目标是得到在新样本上表现更好的学习器,即泛化误差要小 3.过拟合:学习器把训练样本学的太好了,导致泛化性能下降(学过头了...让我联想到有些人死读书,读死书,僵化,不懂得变通和举一反三) 原因:学习能力过于强大,把一些不太一般的特性也学了进来 针对措施:不好解决,是机器学习面临的关键障碍 4.欠拟合:就是连训练集都没学好,更别说泛化了(有点管中窥豹,盲人摸象的意思). 原因: 学习能力低下

机器学习之模型评估与模型选择(学习笔记)

时间:2014.06.26 地点:基地 -------------------------------------------------------------------------------------- 一.训练误差和测试误差 机器学习或者说统计学习的目的就是使学习到的模型不仅对已知数据而且对未知数据都都很好的预测能力.不同的学习方法会得出不同的模型.在评判学习方法的好坏时,常用的是: 1.基于损失函数的模型的训练误差                          2.模型的测试误

机器学习总结之第二章模型评估与选择

机器学习总结之第二章模型评估与选择 2.1经验误差与过拟合 错误率 = a个样本分类错误/m个样本 精度 = 1 - 错误率 误差:学习器实际预测输出与样本的真是输出之间的差异. 训练误差:即经验误差.学习器在训练集上的误差. 泛化误差:学习器在新样本上的误差. 过拟合:学习器把训练样本学的"太好",把不太一般的特性学到了,泛化能力下降,对新样本的判别能力差.必然存在,无法彻底避免,只能够减小过拟合风险. 欠拟合:对训练样本的一半性质尚未学好. 2.2评估方法 (在现实任务中,还需考虑

【机器学习123】模型评估与选择 (上)

第2章 模型评估与选择 2.1 经验误差与过拟合 先引出几个基本概念: 误差(error):学习器的实际预测输出与样本的真实输出之间的差异. 训练误差(training error):学习器在训练集上的误差,也称"经验误差". 测试误差(testing error):学习器在测试集上的误差. 泛化误差(generalization error):学习器在新样本上的误差. 错误率(error rate):分类错误的样本数占样本总数的比例. 精度(accuracy) = 1 – 错误率.

第二章 模型评估与选择

2.1  经验误差与过拟合 错误率和精度:通常我们把分类错误的样本占样本总数的比例称为“错误率”(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m:相应的,1-a/m称为“精度”.(accuracy).即“精度=1-错误率”. 误差:学习期的实际预测误差和样本的真实输出之间的差异称为“误差”(error) 训练误差/经验误差:学习器在训练集上的误差称为“训练误差”(training error)或 “经验误差”(expircial error) 泛化误差(gene

模型评估与选择(1)

模型评估与选择 经验误差与过拟合 (1)错误率:分类错误的样本数占样本总数的比例 精度:1\(-\)错误率 (2)误差:学习器的实际输出与样本真实值之间的差异 误差有训练误差和泛化误差两种.训练误差指的是学习器在训练集上的误差,也称为经验误差:泛化误差指的是在新样本上的误差. (但是,对于训练样本,其分类精度即使是100%,也并不一定代表这个学习器就很好.我们希望得到的是泛化误差小的学习器) (3)过拟合:承接第2点括号内的内容,我们希望得到的学习器,是在新样本上表现很好的学习器,也就是泛化误差

监督学习之模型评估与选择

一.定义: 监督学习主要包括分类和回归 当输出被限制为有限的一组值(离散数值)时使用分类算法 当输出可以具有范围内的任何树值(连续数值)时使用回归算法 相似度学习是和回归和分类都密切相关的一类监督学习,它的目的是使用相似函数从样本中学习,这个函数可以度量两个对象之间的相似度或关联度 二.监督学习三要素 模型:总结数据的内在规律,用数据函数描述的系统 策略:选取最优模型的评价准则 算法:选取最优模型的具体方法 三.模型评估: 1.训练集和测试集 训练集(training set):训练模型的数据