计算二分类的特异性和灵敏度

考虑一个二分类的情况,类别为1和0,我们将1和0分别作为正类(positive)和负类(negative),则实际分类的结果有4种,表格如下(混淆矩阵):

真实情况 预测结果
正例 反例
正例 TP(真正例) FN(假反例)
反例 FP(假正例) TN(真反例)

敏感性Sensitivity (Sen):
Sen=TP/(TP+FN)*100%

特异性 Specificity (Spe)
spe=TN/(TN+FP)*100%

https://www.baidu.com/link?url=mIaeBADUX1ozeV2ulbUyW7QeKAolzFdQFhApe1bH-GinPiFcb0b4sp-CX7iTaIHX2TjRyGtYGsQOKTu4B3keXq&wd=&eqid=db763325003c493b000000035d1763de

在癌症示例中,敏感性和特异性指:

敏感性:在患有癌症的所有人中,诊断正确的人有多少?
特异性:在未患癌症的所有人中,诊断正确的人有多少?

代码实现:

1.首先计算混淆矩阵

输入:标签数据和预测结果
输出:混淆矩阵

from sklearn.metrics import confusion_matrix

confusion_matrix(y_true, y_pred, labels=list(set(y_true)))

2.然后根据上面的公式分别计算灵敏度和特异性

原文地址:https://www.cnblogs.com/Ann21/p/11107978.html

时间: 2024-10-12 08:44:10

计算二分类的特异性和灵敏度的相关文章

【机器学习具体解释】SVM解二分类,多分类,及后验概率输出

转载请注明出处:http://blog.csdn.net/luoshixian099/article/details/51073885 CSDN?勿在浮沙筑高台 支持向量机(Support Vector Machine)以前在分类.回归问题中非常流行.支持向量机也称为最大间隔分类器,通过分离超平面把原始样本集划分成两部分. 首先考虑最简单的情况:线性可分支持向量机.即存在一个超平面能够把训练样本分开. 1.线性可分支持向量机 1.考虑一个线性二分类的问题:例如以下左图,在二维平面上有两种样本点x

【机器学习详解】SVM解二分类,多分类,及后验概率输出

转载请注明出处:http://blog.csdn.net/luoshixian099/article/details/51073885 CSDN?勿在浮沙筑高台 支持向量机(Support Vector Machine)曾经在分类.回归问题中非常流行.支持向量机也称为最大间隔分类器,通过分离超平面把原始样本集划分成两部分. 首先考虑最简单的情况:线性可分支持向量机,即存在一个超平面可以把训练样本分开. 1.线性可分支持向量机 1.考虑一个线性二分类的问题:如下左图,在二维平面上有二种样本点x,目

基于TextCNN的情感二分类

0. Cause I just wanna wake up in the fleeting light 0.1 アイスクリームみた溶けそう.その瞳にみつめられたなら 新论文方向想好了,一个改进的TextCNN应用实例吧.数据集来源于学长之前打比赛时官方发的2G数据包,大概达到的效果就是通过用户短评去给某个景点的旅行指标进行打分.当然会有一个疑问,在我们现实的应用场景中不都是用户进行打分吗.但这里我要做的是对短评的深层语义进行挖掘,然后得出打分(无奈,为了写论文而写),其实确实没有什么意义,但是自

用二项逻辑斯蒂回归解决二分类问题

逻辑斯蒂回归: 逻辑斯蒂回归是统计学习中的经典分类方法,属于对数线性模型.logistic回归的因变量可以是二分类的, 也可以是多分类的 基本原理 logistic 分布 折X是连续的随机变量,X服从logistic分布是指X具有下列分布函数和密度函数: 其中为位置参数,为形状参数.与图像如下,其中分布函数是以为中心对阵,越小曲线变化越快 二项logistic回归模型: 二项logistic回归模型如下: 其中是输入,输出,W称为权值向量,b称为偏置, 是w和x的内积 参数估计 ? 假设: ?

二分类模型评估指标

分类结果混淆矩阵(confusion matrix): 真实\预测 正例 反例 正例 TP FN 反例 FP TN 1.准确率--accuracy 定义:对于给定的测试数据集,分类器正确分类的样本数与总样本数之比.计算方法: 2.精确率--precision(P)定义:被判定为正例(反例)的样本中,真正的正例样本(反例样本)的比例.计算方法: 3.召回率--recall(R)定义:被正确分类的正例(反例)样本,占所有正例(反例)样本的比例.计算方法: 4.F1_score定义:基于精确率和召回率

二分类问题

二分类问题示例: 首先我们从一个问题开始说起,这里有一个二分类问题的例子,假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签1作为结果:如果识别出不是猫,那么输出标签0作为结果(这也就是著名的cat和non cat问题).现在我们可以用字母y来表示输出的结果标签,如下图所示: 我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵(矩阵的概念,一定要清楚,不清楚的需要去看看线性代数了,补充下),它们分别对应图片中的红.绿.蓝三种颜色通道,如果你的图片大小

好还是坏:人工智能二分类问题

上一篇文章我们介绍了深度学习的 Hello World,代码写起来相比其他语言的 Hello World 有点多,且其背后的很多原理你可能还没有完全弄懂,但从宏观上来看,整体的思想是很好理解的.接下包括本篇在内的三篇文章,我们来用深度学习解决三个实际问题,也是非常经典的三个问题,分别是: 二分类问题(电影评论的好坏偏向性判断) 多分类问题(将新闻按照主题分类) 回归问题(根据房地产数据估算房地产价格) 我们解决这三个问题用到的训练模型为: 今天是第一篇,我们关注他们其中比较简单的二分类问题,代码

机器学习——监督分类MLP 二分类的不确定估计

代码: 1 # -- coding: gbk -- 2 from sklearn.datasets import load_breast_cancer 3 from sklearn.model_selection import train_test_split 4 import pandas as pd 5 import mglearn 6 from sklearn.neural_network import MLPClassifier 7 from sklearn.datasets impor

matlab 实现感知机线性二分类算法(Perceptron)

感知机是简单的线性分类模型 ,是二分类模型.其间用到随机梯度下降方法进行权值更新.参考他人代码,用matlab实现总结下. 权值求解过程通过Perceptron.m函数完成 function W = Perceptron(X,y,learnRate,maxStep) % Perceptron.m % Perception Learning Algorithm(感知机) % X一行为一个样本,y的取值{-1,+1} % learnRate:学习率 % maxStep:最大迭代次数 [n,m] =