4 基于概率论的分类方法:朴素贝叶斯

4.5 使用Python进行文本分类

4.5.1 准备数据:从文本中构建词向量

#coding:utf-8

from numpy import *

#准备数据:从文本中构建词向量
def loadDataSet():
    postingList = [[‘my‘, ‘dog‘, ‘has‘, ‘flea‘, ‘problems‘, ‘help‘, ‘please‘],
                   [‘maybe‘, ‘not‘, ‘take‘, ‘him‘, ‘to‘, ‘dog‘, ‘park‘, ‘stupid‘],
                   [‘my‘, ‘dalmation‘, ‘is‘, ‘so‘, ‘cute‘, ‘I‘, ‘love‘, ‘him‘],
                   [‘stop‘, ‘posting‘, ‘stupid‘, ‘worthless‘, ‘garbage‘],
                   [‘mr‘, ‘licks‘, ‘ate‘, ‘my‘, ‘steak‘, ‘how‘, ‘to‘, ‘stop‘, ‘him‘],
                   [‘quit‘, ‘buying‘, ‘worthless‘, ‘dog‘, ‘food‘, ‘stupid‘]]#词条切分后的文档集合
    classVec = [0,1,0,1,0,1]# 1代表侮辱性文字,0代表正常言论
    return postingList, classVec

#创建词汇表
def createVocabList(dataSet):
    vocabSet = set([])
    for document in dataSet:
        vocabSet = vocabSet | set(document)
    return list(vocabSet)

#将一组单词转化一组数字,即将词汇表转换为一组向量
def setOfWords2Vec(vocabList, inputSet):#输入:词汇表,某个文档
    returnVec = [0] * len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] = 1
        else: print "the word: %s is not in my Vocabulary!" % word
    return returnVec

4.5.2 训练算法:从词向量计算概率

#训练算法:计算每个词在每种类别下出现的概率
def trainNB0(trainMatrix, trainCategory):#输入:文档矩阵,每篇文档类别标签构成的向量
    numTrainDocs = len(trainMatrix)
    numWords = len(trainMatrix[0])
    pAbusive = sum(trainCategory)/float(numTrainDocs)#先验概率
    p0Num = zeros(numWords); p1Num = zeros(numWords)#分子:数组
    p0Denom = 0.0; p1Denom = 0.0                    #分母:浮点数

    for i in range(numTrainDocs):
        if trainCategory[i] == 1:#类别为1
            p1Num += trainMatrix[i]#分子
            p1Denom += sum(trainMatrix[i])#分母
        else:
            p0Num += trainMatrix[i]
            p0Denom += sum(trainMatrix[i])
    p1Vect = p1Num / p1Denom#条件概率
    p0Vect = p0Num / p1Denom#条件概率
    return p0Vect, p1Vect, pAbusive

4.5.3 测试算法:根据显示情况修改分类器

拉普拉斯平滑

条件概率p(w0|1)p(w1|1)p(w2|1),如果一个为0,最后乘机也为0.为降低这种影响,可以将所有词出现数初始化为1,分母初始化为2.

打开bayes.py,将trainNB0()的第4行和第5行修改为:

p0Num = ones(numWords); p1Num = ones(numWords)
p0Denom = 2.0; p2Denom = 2.0

另一个问题是下溢出,由于太多很小数相乘造成。一种解决方法是对乘积取自然对数,采用自然对数处理不会有任何损失。

将trainNB0()的return前两行代码修改为:

p1Vect = log(p1Num / p1Denom)
p2Vect = log(p0Num / p0Denom)

将下面代码添加到bayes.py中:

#测试算法:根据现实情况修改分类器
#朴素贝叶斯分类算法
def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):#输入第一个元素:要分类的向量
    p1 = sum(vec2Classify * p1Vec) + log(pClass1)#元素相乘
    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
    if p1 > p0:
        return 1
    else:
        return 0

def testingNB():#便利函数convenience function:封装所有操作
    listOPosts, listClasses = loadDataSet()#调数据
    myVocabList = createVocabList(listOPosts)#建词汇表
    trainMat = []
    for postinDoc in listOPosts:
        trainMat.append(setOfWords2Vec(myVocabList, postinDoc))

    p0V, p1V, pAb = trainNB0(array(trainMat), array(listClasses))

    testEntry = [‘love‘, ‘my‘, ‘dalmation‘]
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, ‘classified as:‘, classifyNB(thisDoc, p0V, p1V, pAb)

    testEntry = [‘stupid‘, ‘garbage‘]
    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, ‘classified as:‘, classifyNB(thisDoc, p0V, p1V, pAb)

4.5.4 准备数据:根据显示情况修改分类器

目前为止,我们将每个词的出现与否作为一个特征,这被描述为词集模型(set-of-words model).

如果每个单词可以出现多次作为特征,这被描述为词袋模型(bag-of-words model).

为适应词袋模型,需对setOfWords2Vec()稍加修改,唯一不同是遇到每个单词时,会增加词向量中的对应值,而不只是将对应的数值设为1.

#将一组单词转化一组数字,即将词汇表转换为一组向量:词集模型
def bagOfWords2Vec(vocabList, inputSet):#输入:词汇表,某个文档
    returnVec = [0] * len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] += 1
    return returnVec

现在分类器已构建好,下面将利用该分类器来过滤垃圾邮件。

时间: 2024-10-24 16:51:32

4 基于概率论的分类方法:朴素贝叶斯的相关文章

第四章:基于概率论的分类方法: 朴素贝叶斯

本章内容□使用概率分布进行分类□学习朴素贝叶斯分类器□解析RSS源数据口使用朴素贝叶斯来分析不同地区的态度 前两章我们要求分类器做出艰难决策,给出“该数据实例属于哪一类”这类问题的明确答案.不过,分类器有时会产生错误结果,这时可以要求分类器给出一个最优的类别猜测结果,同时给出这个猜测的概率估计值.       概率论是许多机器学习算法的基础,所以深刻理解这一主题就显得十分重要.第3章在计算特征值取某个值的概率时涉及了一些概率知识,在那里我们先统计特征在数据集中取某个特定值的次数,然后除以数据集的

基于概率论的分类方法:朴素贝叶斯算法实践学习

      关于本文说明,本人原博客地址位于http://blog.csdn.net/qq_37608890,本文来自笔者于2017年12月12日 13:03:46所撰写内容(http://blog.csdn.net/qq_37608890/article/details/78738552).             本文根据最近学习机器学习书籍 网络文章的情况,特将一些学习思路做了归纳整理,详情如下.如有不当之处,请各位大拿多多指点,在此谢过.          通过前两篇文章,我们对于k-近

机器学习四 -- 基于概率论的分类方法:朴素贝叶斯

基于概率的分类方法:朴素贝叶斯 贝叶斯决策理论 朴素贝叶斯是贝叶斯决策理论的一部分,所以在讲解朴素贝叶斯之前我们先快速简单了解一下贝叶斯决策理论知识. 贝叶斯决策理论的核心思想:选择具有最高概率的决策.比如我们毕业选择就业方向,选择C++方向的概率为0.3,选择Java的概率为0.2,选择机器学习的概率为0.5.那么我们就把这样的一位毕业生就业方向归类为机器学习方向. 条件概率 什么是条件概率?事件A在另一个事件B已知发生条件下的发生概率,记为P(A|B),读作“在B条件下A的概率”. 例子1:

机器学习实战读书笔记(四)基于概率论的分类方法:朴素贝叶斯

4.1 基于贝叶斯决策理论的分类方法 朴素贝叶斯 优点:在数据较少的情况下仍然有效,可以处理多类别问题 缺点:对于输入数据的准备方式较为敏感 适用数据类型:标称型数据 贝叶斯决策理论的核心思想:选择具有最高概率的决策. 4.2 条件概率 4.3 使用条件概率来分类 4.4 使用朴素贝叶斯进行文档分类 朴素贝叶斯的一般过程: 1.收集数据 2.准备数据 3.分析数据 4.训练算法 5.测试算法 6.使用算法 朴素贝叶斯分类器中的另一个假设是,每个特征同等重要. 4.5 使用Python进行文本分类

机器学习 基于概率论的分类方法:朴素贝叶斯

分类器可能产生错误分类,要求分类器给出一个最优的类别猜测结果并给出这个猜测的概率估计值. 朴素贝叶斯的特点: 优点:在数据较少的情况下依然有效,可以处理多类别问题: 缺点:对于输入数据的准备方式较为敏感: 适用数据类型:标称型数据 条件概率:在A条件下发生B结果的概率: P(B|A) = P(A&B)/P(A) 在A条件下发生B结果的概率等于A和B同时发生的概率除以A发生的概率 P(A&B) = P(A)*P(B|A) A和B同时发生的概率等于A发生的概率乘以A条件下B发生的概率 P(A&

机器学习(基于概率论的分类方法:朴素贝叶斯)

概率论是许多机器学习算法的基础,因而本篇将会用到一些概率论知识,我们先统计在数据集中取某个特定值的次数,然后除以数据集的实例总数,就得到了取该值的概率. 优点:在数据较少的情况下仍然有效,可以处理多类别问题 缺点:对输入数据的准备方式比较敏感 适用于标称型数据 如果P1(X,Y)>P2(X,Y),那么属于类别1 如果P2(X,Y)>P1(X,Y),那么属于类别2 也就是说我们会选择高概率对应的类别.这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策 朴素贝叶斯的朴素就是特征之间相互独立

【简单认识】机器学习常见分类算法——朴素贝叶斯

贝叶斯在1763年,<机会学说中一个问题的解>中提出了贝叶斯定理. 生活中不乏分类,比如我们经常通过一些人的衣着,来下意识的区别某些人是杀马特亦或是文艺青年.我们是如何做出这些判断或者说是分类的呢?这些判断大多来自我们的“经验之谈”,即,我们首先脑海中会先存有“某类人通常会如何着装打扮”的概念,然后当遇到这类显著特征之后,便会下意识的对其进行分类. 那么如何让机器进行这种类似的判断区分呢? 朴素贝叶斯分类法是一种相对简单易理解的机器分类方法.它的思想是首先对一些已知分类的样本进行采样(机器学习

4 基于概率论的分类方法:朴素贝叶斯(三)

4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 前面介绍了两个应用:1.过滤网站的恶意留言:2.过滤垃圾邮件. 4.7.1 收集数据:导入RSS源 Universal Feed Parser是Python中最常用的RSS程序库. 在Python提示符下输入: 构建类似于spamTest()函数来对测试过程自动化. #RSS源分类器及高频词去除函数 def calcMostFreg(vocabList, fullText): import operator freqDict = {}

机器学习(五)—朴素贝叶斯

最近一直在看机器学习相关的算法,今天我们学习一种基于概率论的分类算法—朴素贝叶斯.本文在对朴素贝叶斯进行简单介绍之后,通过Python编程加以实现. 一  朴素贝叶斯概述                                                               1 前言 “贝叶斯”又是一个响当当的名字,刚开始接触的是贝叶斯定理.贝叶斯分类器是一类分类算法的总称,是两种最为广泛的分类模型之一,另一种就是上篇中的决策树了.贝叶斯分类均以贝叶斯定理为基础,朴素贝叶斯是