图像检测经典的评估方式——PR曲线,ROC曲线

Keywords: PR curve, ROC curve, Machine Learning, image processing

为了帮助大家理解,比如我们需要检测一个图像中的人,分类器将图像上的每个像素划分为人和非人像素,目标是人,所以检测为人的像素用Positives表示,检测为非人的像素用Negatives来表示,检测到了需要报告,检测到不是需要拒绝,检测到了实际不是则为误报(错误地报告)或错检(非目标当成目标了),该检测到的没有检测到则为漏报或漏检

  • True/False = 正确地/错误地
  • Positives/Negatives = 识别为目标/识别为非目标

    这样就容易理解了:

  • True positives (TP) = 正确地被识别为目标 的像素 (正确检出)
  • False positives (FP) = 错误地被识别为目标 的像素(错检,报多了)
  • True negatives (TN) = 正确地被识别为非目标 的像素 (正确拒绝)
  • False negatives (FN) = 错误地被识别为非目标 的像素 (漏检,报少了)

这些参数是常用的评估方法的基础。通过这些参数的值我们可以计算出ROC空间和PR空间的一个点,多个图像就可以得到多个点,连成曲线就是所谓的ROC曲线和PR曲线。

  1. ROC空间(面向真实结果Gound Truth)

    横轴 False Positive Rate (FPR) = 非目标像素中错检为目标的比例(越小越好)

    纵轴 True Positive Rate (TPR) = 目标像素中正确检出的比例(越大越好)

  2. PR空间(面向检测结果的正确性)

    横轴 Recall = TPR 实际目标像素中正确检出的比例(越大越好)

    纵轴 Precision = 检测出的目标像素中正确的比例,检测精度(越大越好)

总结图

来自论文The Relationship Between Precision-Recall and ROC Curves

详细讨论可以看论文,下面引出关键段落

2. Review of ROC and Precision-Recall

In a binary decision problem, a classifier labels ex-

amples as either positive or negative.The decision

made by the classifier can be represented in a struc-

ture known as a confusion matrix or contingency ta-

ble. The confusion matrix has four categories: True

positives (TP) are examples correctly labeled as posi-

tives. False positives (FP) refer to negative examples

incorrectly labeled as positive. True negatives (TN)

correspond to negatives correctly labeled as negative.

Finally, false negatives (FN) refer to positive examples

incorrectly labeled as negative.

A confusion matrix is shown in Figure 2(a). The con-

fusion matrix can be used to construct a point in either

ROC space or PR space. Given the confusion matrix,

we are able to define the metrics used in each space

as in Figure 2(b). In ROC space, one plots the False

Positive Rate (FPR) on the x-axis and the True Pos-

itive Rate (TPR) on the y-axis. The FPR measures

the fraction of negative examples that are misclassi-

fied as positive.The TPR measures the fraction of

positive examples that are correctly labeled. In PR

space, one plots Recall on the x-axis and Precision on

the y-axis. Recall is the same as TPR, whereas Pre-

cision measures that fraction of examples classified as

positive that are truly positive. Figure 2(b) gives the

definitions for each metric. We will treat the metrics

as functions that act on the underlying confusion ma-

trix which defines a point in either ROC space or PR

space. Thus, given a confusion matrix A, RECALL(A)

returns the Recall associated with A.

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-19 13:29:26

图像检测经典的评估方式——PR曲线,ROC曲线的相关文章

ROC曲线 VS PR曲线

sklearn实战-乳腺癌细胞数据挖掘(博客主亲自录制视频教程,QQ:231469242) https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share https://www.plob.org/article/12476.html(原文链接)  初识ROC曲线 1. RO

R语言ROC曲线下的面积 - 评估逻辑回归中的歧视

原文链接:http://tecdat.cn/?p=6310 在讨论ROC曲线之前,首先让我们在逻辑回归的背景下考虑校准和区分之间的区别. 良好的校准是不够的 对于模型协变量的给定值,我们可以获得预测的概率.如果观察到的风险与预测的风险(概率)相匹配,则称该模型已被很好地校准.也就是说,如果我们要分配一组值的大量观察结果,这些观察结果的比例应该接近20%.如果观察到的比例是80%,我们可能会同意该模型表现不佳 - 这低估了这些观察的风险. 我们是否应满足于使用模型,只要它经过良好校准?不幸的是.为

机器学习之roc曲线

机器学习之ROC曲线 roc曲线全称受试者工作曲线,ROC曲线下面积就是AUC(Area under the curve),AUC用来衡量二分类机器学习算法的性能,即泛化能力 这里有几个概念,真阳性率,假阳性率,真阴性率,假阴性率,这四个率的产生是一个相对指标,即有一个参考标准,比如一个检测方法的金标准, 我用另一种方法检测,如下图所示 真(预测值) 假(预测值) 真(金标准) 20 5 假(金标准) 3 15 这个表里面我们分别来计算真阳性率和假阳性率(注意:所谓的真阳性率和假阳性率都是依据金

从TP、FP、TN、FN到ROC曲线、miss rate、行人检测评估

想要在行人检测的evaluation阶段要计算miss rate,就要从True Positive Rate讲起:miss rate = 1 - true positive rate true positive rate毕竟是一个rate,是一个比值.是谁和谁比呢?P 要从TP.FP.TN.FN讲起. 考虑一个二分类问题:一个item,它实际值有0.1两种取值,即负例.正例:而二分类算法预测出来的结果,也只有0.1两种取值,即负例.正例.我们不考虑二分类算法细节,当作黑箱子就好:我们关心的是,预

精确率与召回率,RoC曲线与PR曲线

在机器学习的算法评估中,尤其是分类算法评估中,我们经常听到精确率(precision)与召回率(recall),RoC曲线与PR曲线这些概念,那这些概念到底有什么用处呢? 首先,我们需要搞清楚几个拗口的概念: 1. TP, FP, TN, FN True Positives,TP:预测为正样本,实际也为正样本的特征数 False Positives,FP:预测为正样本,实际为负样本的特征数 True Negatives,TN:预测为负样本,实际也为负样本的特征数 False Negatives,

OpenCV优化:图像的遍历4种方式

OpenCV优化:图像的遍历4种方式 分类: 算法学习2014-04-13 23:43 1312人阅读 评论(0) 收藏 举报 opencv 目录(?)[+] OpenCV优化:图像的遍历4种方式 我们在实际应用中对图像进行的操作,往往并不是将图像作为一个整体进行操作,而是对图像中的所有点或特殊点进行运算,所以遍历图像就显得很重要,如何高效的遍历图像是一个很值得探讨的问题. 一.遍历图像的4种方式:at<typename>(i,j) Mat类提供了一个at的方法用于取得图像上的点,它是一个模板

R语言中绘制ROC曲线和PR曲线

接收器操作特性(ROC)曲线可能是评估评分分类器的预测性能的最常用的度量. 预测正类(+1)和负类(-1)的分类器的混淆矩阵具有以下结构: 预测/参考类 +1 -1 +1 TP FP -1 FN TN 这里,TP表示真阳性的数量(模型正确预测正类),FP表示误报的数量(模型错误地预测正类),FN表示假阴性的数量(模型错误地预测阴性类),TN表示真阴性的数量(模型正确预测阴性类). ROC曲线 在ROC曲线中,相对于假阳性率(FPR,x轴)绘制真阳性率(TPR,y轴).这些数量定义如下: TPRF

ROC曲线和PR曲线绘制【转】

TPR=TP/P :真正率:判断对的正样本占所有正样本的比例.  Precision=TP/(TP+FP) :判断对的正样本占判断出来的所有正样本的比例 FPR=FP/N :负正率:判断错的负样本占所有负样本的比例. Recall = TP/(TP+FN) = TP/P,就是TPR. ROC曲线:横轴是FPR,纵轴是TPR. 绘制出的曲线应该在y=x直线之上,曲线积分的结果就是AUC的值.AUC越大则系统分类性能越好. PR曲线:横轴是Precision,纵轴是recall. precision

【ROC曲线】关于ROC曲线、PR曲线对于不平衡样本的不敏感性分析说引发的思考

ROC曲线 在网上有很多地方都有说ROC曲线对于正负样本比例不敏感,即正负样本比例的变化不会改变ROC曲线.但是对于PR曲线就不一样了.PR曲线会随着正负样本比例的变化而变化.但是没有一个有十分具体和严谨地对此做出过分析和论证(至少我没有找到). 此处记为结论1: 结论1:PR曲线会随着正负样本比例的变化而变化:但是ROC曲线不会. 此处我就这一问题进行了详细的分析论证,并在这个过程中引发了很多思考. 首先,如何分析这个问题呢? 看下ROC曲线是由TPR和FPR组成的 下面我们这样来分析这个问题