# 07 朴素叶贝斯算法

07 朴素叶贝斯算法

概率基础

  1. 概率: 一件事情发生的可能性
  2. 联合概率: 包含多个条件,且所有条件同时成立的概率。P(A,B)
    P(A, B) = P(A)P(B)
  3. 条件概率:事件A在另外一个事件B已经发生条件下发生的概率。 P(A|B)
    P(A1,A2 | B) = P(A1 | B) * P(A2 | B)
    注意: 此条件概率的成立,是由于A1, A2相互独立的结果

朴素贝叶斯

  1. 朴素: 特征独立,常用文档分类

    • 在给定词比例的基础上,求各类型文档的比例
  2. 贝叶斯公式: (多个条件下一个结果)
  • 公式分为3个部分:

    • P(C): 每个文档类别的概率 (某类文档数/总文档数)
    • P(W | C):给定类别下特征(被预测文档中出现的词)的概率:计算方法:P(F1|C) = Ni/N
      • Ni : F1词在C类别文档所有文档出现的次数
      • N: 所属C类别下的文档所有词出现的次数和
    • P(F1,F2,F3) : 预测文档中每个词的概率
  1. 文档分类: 给定一个文档的条件下,求文档所属于科技、娱乐等类别的概率。哪个类别的概率大,则归为某个类别。
  • 文档:词1, 词2 , 词3 (词出现的数量的情况下,判断类别)

    • P(科技|词1,词2,词3) = P(f1,f2,f3 | 科技)*P(科技)/P(W)
    • P(娱乐|词1,词2,词3) = P(f1,f2,f3 | 娱乐)*P(娱乐)/P(W)
  • 由于是概率大小,则P(W)可以同时约去

文档分类实例

特征 科技(30篇) 娱乐(60篇) 汇总(90篇)
商场 9 51 60
影院 8 56 64
支付宝 20 15 35
云计算 63 0 63
汇总(求和) 100 121 221

现有一篇预测文档,出现了影院支付宝云计算,计算属于科技、娱乐的概率。

  • 科技: P(科技 |影院,支付宝,云计算)= P(影院,支付宝,云计算| 科技)* P(科技)= P(影院|科技)P(支付宝|科技) P(云计算|科技)P(科技)= (8/100)* (20/100)* (63/100)*(30/90) = 0.00456109
  • 娱乐:P(娱乐 |影院,支付宝,云计算)= (56/121)(15/121)(0/121)(60/90)= 0

拉普拉斯平滑

  1. 目的:避免单个特征词出现次数为0 ,导致最终的计算结果为0 。
  2. 原因:其他的词在这个类型文档中出现过,则还是有可能属于这个文档。
  3. P(F1|C) = (Ni +a) /(N+am)
    • a为指定的系数,一般取1
    • m为训练文档中统计出的特征词的个数 (上述例子中为4)

sklearn朴素贝叶斯API

sklearn.naive_bayes.MultinomialNB (alpha = 1.0)

朴素贝叶斯算法案例 (sklearn 20类新闻分类)

案例流程

  1. 加载数据,进行分割
  2. 生成文章特征词
  3. 朴素贝叶斯estimator进行预估

算法总结

  1. 训练集误差大,结果肯定不好
  2. 不需要调参
  3. 优点:
    • 发源于古典数学理论,有稳定的分类效率
    • 对缺失数据不太敏感,算法也比较简单,常用于文本分类
    • 分类准确率高,速度快
  4. 缺点:
    • 由于使用样本独立性假设,对样本属性有关联时效果不好

分类模型评估

常见评估方法

  1. estimator.score() - 准确率,预测结果正确的百分比
  2. 精确率(precision) - 预测结果为正例样本中真实为正例的比例(查的准)
  3. 召回率(recall) - 真实为正例的样本中预测结果为正例的比例(查的全)
  4. F1-score - 反映了模型的稳定性

混淆矩阵

  1. 定义:在分类任务中,预测结果(Predicted condition) 与正确标记 (True condition)之间存在四种不同的组合,构成混淆矩阵。

分类评估API

sklearn.metrics.classification_report(y_true, y_pred, target_names=None)

  • y_true: 真实目标值
  • y_pred: 估计器预测目标值
  • target_names: 目标类别名称
  • return: 每个类别精确率和召回率

案例代码

from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import classification_report

def naivebayes():
    """
    朴素贝叶斯进行文本分类
    :return: None
    """
    news = fetch_20newsgroups(subset='all')
    # 进行数据分割
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target_names, test_size=0.25 )

    # 对数据集进行特征抽取
    tf = TfidfVectorizer()

    # 以训练集当中的词的列表进行每篇文章重要性统计
    x_train = tf.fit_transform(x_train)
    print(tf.get_feature_names())
    x_test = tf.transform(x_test)

    # 进行朴素贝叶斯算法的计算
    mlt = MultinomialNB(alpha=1.0)
    mlt.fit(x_train, y_train)
    print(x_train)
    y_predict = mlt.predict(x_test)

    print("预测的文章类别为:", y_predict)
    score = mlt.score(x_test, y_test)
    print("分类准确率为:", score)

    print("每个类别的精确率和召回率:", classification_report
    (y_test,y_predict,target_names=news.target_names))
    return None

if __name__ == '__main__':
    naivebayes()

原文地址:https://www.cnblogs.com/hp-lake/p/11909150.html

时间: 2024-08-01 02:29:46

# 07 朴素叶贝斯算法的相关文章

机器学习--朴素贝叶斯算法原理、方法及代码实现

一.朴素的贝叶斯算法原理 贝叶斯分类算法以样本可能属于某类的概率来作为分类依据,朴素贝叶斯分类算法是贝叶斯分类算法中最简单的一种,朴素的意思是条件概率独立性. 条件概率的三个重要公式: (1)概率乘法公式: P(AB)= P(B) P(A|B) = P(A) P(B|A) =P(BA) (2)全概率公式:        (3)贝叶斯公式:            如果一个事物在一些属性条件发生的情况下,事物属于A的概率>属于B的概率,则判定事物属于A,这就是朴素贝叶斯的基本思想. 二.算法步骤 (

数据挖掘|朴素贝叶斯算法

作者:张一 链接:https://zhuanlan.zhihu.com/p/21571692 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 因为后期的项目将涉及到各种各样的价格数据处理问题,所以我们现在开始学习一些简单的数据清洗与算法的知识.关于算法,以前听起来觉得好高大上,现在开始学,觉得书上的描述并不是很通俗易懂,所以用自己的语言来简要写一下这些算法~ 注:非商业转载注明作者即可,商业转载请联系作者授权并支付稿费.本人已授权"维权骑士"网站(ht

挖掘算法(1)朴素贝叶斯算法

原文:http://www.blogchong.com/post/NaiveBayes.html 1 文档说明 该文档为朴素贝叶斯算法的介绍和分析文档,并且结合应用实例进行了详细的讲解. 其实朴素贝叶斯的概念以及流程都被写烂了,之所以写这些是方便做个整理,记录备忘.而实例部分进行了详细的描述,网络上该实例比较简单,没有过程. 至于最后部分,则是对朴素贝叶斯的一个扩展了,当然只是简单的描述了一下过程,其中涉及到的中文分词以及TFIDF算法,有时间再具体补上. 2 算法介绍 2.1 贝叶斯定理 (1

统计学习方法 -> 朴素贝叶斯算法

需要知道的是在什么时候可以用朴素贝叶斯算法:需要保证特征条件独立. 主要过程是学习输入和输出的联合概率分布. 预测的时候,就可以根据输入获得对打后验概率对应的输出y. 先验概率:已知输出,求输入.后验概率相反. 简单来说朴素贝叶斯算法,就是在对样本进行学习之后,到了需要做决策的时候,给定x,给出最大概率的y.这个本质上就是一个典型的后验概率模型.不过在该模型的算法推到上,还用到了先验概率的计算.但注意:最终朴素贝叶斯就是一种后验概率模型求P(y|x). 后验概率模型有一个好处,相当于期望风险最小

朴素贝叶斯算法及实现

1.朴素贝叶斯算法介绍 一个待分类项x=(a,b,c...),判断x属于y1,y2,y3...类别中的哪一类. 贝叶斯公式: 算法定义如下: (1).设x={a1, a2, a3, ...}为一个待分类项,而a1, a2, a3...分别为x的特征 (2).有类别集合C={y1, y2,  y3,  ..} (3).计算p(y1|x), p(y2|x), p(y3|x), .... (4).如果p(y(k)|x)=max{p(y1|x), p(y2|x), p(y3|x), ....},则x属于

朴素贝叶斯算法资料整理和PHP 实现版本

朴素贝叶斯算法简洁 http://blog.csdn.net/xlinsist/article/details/51236454 引言 先前曾经看了一篇文章,一个老外程序员写了一些很牛的Shell脚本,包括晚下班自动给老婆发短信啊,自动冲Coffee啊,自动扫描一个DBA发来的邮件啊, 等等.于是我也想用自己所学来做一点有趣的事情.我的想法如下: 首先我写个scrapy脚本来抓取某个网站上的笑话 之后写个Shell脚本每天早上6点自动抓取最新的笑话 然后用朴素贝叶斯模型来判断当前的笑话是否属于成

C#编程实现朴素贝叶斯算法下的情感分析

C#编程实现 这篇文章做了什么 朴素贝叶斯算法是机器学习中非常重要的分类算法,用途十分广泛,如垃圾邮件处理等.而情感分析(Sentiment Analysis)是自然语言处理(Natural Language Progressing)中的重要问题,用以对文本进行正负面的判断,以及情感度评分和意见挖掘.本文借助朴素贝叶斯算法,针对文本正负面进行判别,并且利用C#进行编程实现. 不先介绍点基础? 朴素贝叶斯,真的很朴素 朴素贝叶斯分类算法,是一种有监督学习算法,通过对训练集的学习,基于先验概率与贝叶

【数据挖掘】朴素贝叶斯算法计算ROC曲线的面积

题记:          近来关于数据挖掘学习过程中,学习到朴素贝叶斯运算ROC曲线.也是本节实验课题,roc曲线的计算原理以及如果统计TP.FP.TN.FN.TPR.FPR.ROC面积等等.往往运用ROC面积评估模型准确率,一般认为越接近0.5,模型准确率越低,最好状态接近1,完全正确的模型面积为1.下面进行展开介绍: ROC曲线的面积计算原理 一.朴素贝叶斯法的工作过程框架图 二.利用weka工具,找到训练的预处理数据 1.利用朴素贝叶斯算法对weather.nominal.arff文件进行

朴素贝叶斯算法原理及实现

朴素贝叶斯算法简单高效,在处理分类问题上,是应该首先考虑的方法之一. 1.准备知识 贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类. 这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A).这里先解释什么是条件概率: 表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率.其基本求解公式为:. 下面不加证明地直接给出贝叶斯定理: 2.朴素贝叶斯分类 2.1