性能度量RMSE

回归问题的典型性能度量是均方根误差(RMSE:Root Mean Square Error)。如下公式。

  1. m为是你计算RMSE的数据集中instance的数量。
  2. x(i)是第i个实例的特征值向量 ,y(i)是其label(期望的模型输出)。如下:
  3. X是包含了所有实例的特征值(不包含label)的矩阵。每行代表一个实例,并且每行等于x(i)向量的转置:(x(i))T 。 下图矩阵中的第一行为2中向量的转置(列向量变为行向量)。

  4. h是预测函数,当输入是某实例的特征向量x(i) 应用函数之后,结果为?(i)=h(x(i)). ?也叫作y-hat. 比如:对第一个实例应用函数h后结果为158400,即?(1)=h(x(1))=158400。那么预测误差/错误为?(1)-y(1) = 158400 - 156400 = 2000.
  5. RMSE(X,h) 是在数据集X上应用于函数h计算的cost function。

以上,我们使用小写斜体表示标量(m,y(i)),函数名(h)。小写粗体表示向量(x(i)). 大写粗体表示矩阵(X).

还有一种度量方法为: Mean Absolute Error. 理解起来也比较简单。

下面是一张图,通过线性关系生动解释了RMSE。4个黑色的点是数据集(包括标签),蓝色的线是我们的预测函数h: ?=2.50x-2。从而可以求出RMSE为0.707.与之前不同的是这里取m为3(m-1)而不是4。

结论: RMSE越小,说明模型越fit数据。

原文地址:https://www.cnblogs.com/nativestack/p/ml_rmse.html

时间: 2024-08-12 21:34:41

性能度量RMSE的相关文章

机器学习:模型性能度量(performance measure)(待补充)

对学习器的泛化性能进行评估,不仅需要有效的实验估计方法,还需要有衡量模型泛化性能的评准指标,这就是性能度量.性能度量反应任务需求,对比不同模型能力时,使用不同性能度量能导致不同的评判结果.因此,模型的好坏是相对的,模型不仅取决于算法和数据,还绝对于任务需求. 1. 回归任务中常用的性能度量是"均方误差"(mean squared error) 2. 聚类任务中性能度量分为两类:一类是将聚类结果与某个"参考模型"(reference model)进行比较,成为&quo

模型性能度量

对学习器的泛化性能的评估,不仅需要有效可行的试验评估方法,还需要有模型泛化能力的评价标准,这就是性能度量(performance measure),性能度量反映了任务需求,在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评判结果,这意味着模型的"好坏"是相对的,什么样的模型是好的,不仅取决于算法和数据,还决定于任务需求. 在预测任务中,给定样例集D={(x1,y1),(x2,y2),......,(xm,ym)},其中yi是示例xi的真是标记,要评估学习器f的性能,就要把学习

机器学习之性能度量

性能度量是衡量模型泛化能力的评判标准,性能度量反映了任务需求,在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评判结果,因此什么样的模型是好的,不仅取决于算法和数据,还取决于任务需求. 1.错误率和精度 其实说白了就是我们的损失函数所体现的指标,比如常见的在分类问题中分类错误类别所占的比例或者是回归问题中的均方误差等,分别如下面的公式所示 2.查准率.查全率与F1 查准率:查准率表示预测的正例中有多少是真正的正率(也就是你预测正例的准确性) 查全率:查全率表示真是的正例中有多少被准确的

任务、性能度量和经验

机器学习算法被认为是一种从数据中学习的算法.所谓"学习"有一个定义:''对于某类任务 T 和性能度量 P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量 P 衡量的性能有所提升." 下面将对任务.性能度量和经验进行介绍. 1.任务E 从"任务"的相对定义来讲,学习过程不能算成任务,学习能获取一种能力,这种能力可以让我们完成任务.比如我们要让机器人行走,那么行走就是任务. 从机器学习的角度来讲,任务定义为机器

吴裕雄 python 机器学习——模型选择回归问题性能度量

from sklearn.metrics import mean_absolute_error,mean_squared_error #模型选择回归问题性能度量mean_absolute_error模型 def test_mean_absolute_error(): y_true=[1,1,1,1,1,2,2,2,0,0] y_pred=[0,0,0,1,1,1,0,0,0,0] print("Mean Absolute Error:",mean_absolute_error(y_tr

吴裕雄 python 机器学习——模型选择分类问题性能度量

import numpy as np import matplotlib.pyplot as plt from sklearn.svm import SVC from sklearn.datasets import load_iris from sklearn.preprocessing import label_binarize from sklearn.multiclass import OneVsRestClassifier from sklearn.model_selection imp

机器学习周志华——学习器性能度量

衡量模型泛化能力的评价标准,就是性能度量(performance measure). (1)错误率与精度 (2)查准率.查全率与F1 基于样例真实类别,可将学习器预测类别的组合划分为真正例(true positive).假正例(false positive).真反例(true negative).假反例(false negative),TP.FP.TN.FN分别表示其对应的样例数,则有TP+FP+TN+FN=样例总数. 查准率P与查全率R分别定义为: P= TP/(TP+FP)=>正例结果中真正

机器学习评估方法及性能度量

机器学习评估方法及性能度量 1.方法 2.度量 机器学习评估方法及性能度量 1.方法 已知数据集\(D\)有限, 需分出一部分用作训练, 剩下的一部分用作测试. 按比例留出. 训练集和测试集保持\(D\)中类别的比例. 以二分类任务为例, 常见做法是将大约\(2/3\)~\(4/ 5\)的样本用作训练, 剩余样本用于测试. 一般采用若干次随机划分, 重复进行实验评估后取平均值作为留出法的评估结果. 交叉检验法. 划分\(D = D_1\cup \cdots \cup D_k\),\(D_i\ca

机器学习实战笔记(Python实现)-07-分类性能度量指标

1.混淆矩阵 下图是一个二类问题的混淆矩阵,其中的输出采用了不同的类别标签 常用的衡量分类性能的指标有: 正确率(Precision),它等于 TP/(TP+FP) ,给出的是预测为正例的样本中的真正正例的比例. 召回率(Recall),他等于 TP/(TP+FN),给出的是预测为正例的真实正例占所有真实正例的比例. 2.ROC曲线 图中的横轴是伪正例的比例(假阳率=FP/(FP+TN)),而纵轴是真正例的比例(真阳率=TP/(TP+FN)).ROC曲线给出的是当阈值变化时假阳率和真阳率的变化情