关于Confusion Matrix

from sklearn.metrics import confusion_matrix
y_true = [2, 0, 2, 2, 0, 1]
y_pred = [0, 0, 2, 2, 0, 2]
print confusion_matrix(y_true, y_pred)

结果:

[[2 0 0]
[0 0 1]
[1 0 2]]

理解:

首先,程序默认按照从小到大排序。

建立坐标时,按照输出逆序建立,y轴是真值,x轴是预测值

y轴    1   0  2

0  0  1

2  0  0

x轴

时间: 2024-10-02 05:26:34

关于Confusion Matrix的相关文章

混淆矩阵(Confusion Matrix)分析

Content ConfusionMatrix Example Talbe ofconfusion Preference Confusion Matrix 在机器学习领域,混淆矩阵(confusion matrix),又称为可能性表格或是错误矩阵.它是一种特定的矩阵用来呈现算法性能的可视化效果,通常是监督学习(非监督学习,通常用匹配矩阵:matching matrix).其每一列代表预测值,每一行代表的是实际的类别.这个名字来源于它可以非常容易的表明多个类别是否有混淆(也就是一个class被预测

混淆矩阵(Confusion matrix)的原理及使用(scikit-learn 和 tensorflow)

原理 在机器学习中, 混淆矩阵是一个误差矩阵, 常用来可视化地评估监督学习算法的性能. 混淆矩阵大小为 num_classes x num_classes 的方阵, 其中 num_classes 表示类的数量. 这个矩阵的每一行表示真实类中的实例, 而每一列表示预测类中的实例 (Tensorflow 和 scikit-learn 采用的实现方式). 也可以是, 每一行表示预测类中的实例, 而每一列表示真实类中的实例 (Confusion matrix From Wikipedia 中的定义). 

语义定位:Semantic Localization Via the Matrix Permanent(二)

论文假设和单目标模型 这部分想讲一下Semantic Localization Via the Matrix Permanent这篇文章的一些假设. 待求解的问题可以描述为 假设从姿态\(x\)看到的物体(路标点)集合为\(Y(x)={y_1,...,y_n}\),观测为\(Z={z_1,...,z_m}\).求后验概率\(p(Z|Y,x)\). 这里引入数据关联\(\pi\)表示从物体到测量的一个对应关系,其中即包含正确的配对,也包含错误的配对和缺失的配对. 一些假设 作者对目标检测和数据关联

Random Forest Classification of Mushrooms

There is a plethora of classification algorithms available to people who have a bit of coding experience and a set of data. A common machine learning method is the random forest, which is a good place to start. This is a use case in R of the randomFo

scikit-learn:3. Model selection and evaluation

参考:http://scikit-learn.org/stable/model_selection.html 有待翻译,敬请期待: 3.1. Cross-validation: evaluating estimator performance 3.1.1. Computing cross-validated metrics 3.1.1.1. Obtaining predictions by cross-validation 3.1.2. Cross validation iterators 3.

【机器学习实验】使用朴素贝叶斯进行文本的分类

引言 朴素贝叶斯由贝叶斯定理延伸而来的简单而强大的概率模型,它根据每个特征的概率确定一个对象属于某一类别的概率.该方法基于一个假设,所有特征需要相互独立,即任一特征的值和其他特征的值没有关联关系. 虽然这种条件独立的假设在许多应用领域未必能很好满足,甚至是不成立的.但这种简化的贝叶斯分类器在许多实际应用中还是得到了较好的分类精度.训练模型的过程可以看作是对相关条件概率的计算,它可以用统计对应某一类别的特征的频率来估计. 朴素贝叶斯最成功的一个应用是自然语言处理领域,自然语言处理的的数据可以看做是

非均衡分类问题的思考与问题与解决思路

前言 在前面的文章中,讨论了一些分类算法.然后,有一点一直忽视了,就是非均衡的分类问题. 分均衡分类有两种情形 情形一:正例和反例数量相差非常大. 比如,分析信用卡信息集里面的正常样本和诈骗样本.正常样本固然比诈骗样本要多的多了. 情形二:分类正确/错误的代价不同. 比如,分析病人的体检数据,我们肯定是希望不漏过任何一个病例.因此,有病诊断为无病的后果要比无病诊断为有病的后果严重的多. 这样的非均衡分类的情形导致了仅仅是使用分类错误率还分析分类质量是不科学的. 本文就将介绍一些新的衡量分类质量的

knn算法及R语言实现(1)

算法要点: knn(k-nearst neighbor) 1:k:=最近邻点数,D:=training set of data 2:for (待测点z) 3:计算z和每个样例(x,y)的距离 4:选择离z最近的k个训练样例的集合 5:统计第4步得到的点哪一类多,则z就属于哪一类 6:end for 数据: libraryI(ISLR) names(Smarket )#R自带数据 knn代码: attach(Smarket) train=(Year<2005)                   

mahout部署实践

一 下载mahout并解压 unzip  unzip mahout-distribution-0.9-src.zip 二 设置环境变量 1一些说明 JAVA_HOME mahout运行需指定jdk的目录 MAHOUT_JAVA_HOME指定此变量可覆盖JAVA_HOME值 HADOOP_HOME  如果配置,则在hadoop分布式平台上运行,否则单机运行 HADOOP_CONF_DIR指定hadoop的配置文件目录 MAHOUT_LOCAL  如果此变量值丌为空,则单机运行mahout. MAH