第五篇:朴素贝叶斯分类算法原理分析与代码实现

前言

本文介绍机器学习分类算法中的朴素贝叶斯分类算法并给出伪代码,Python代码实现。

词向量

朴素贝叶斯分类算法常常用于文档的分类,而且实践证明效果挺不错的。

在说明原理之前,先介绍一个叫词向量的概念。 --- 它一般是一个布尔类型的集合,该集合中每个元素都表示其对应的单词是否在文档中出现。

比如说,词汇表只有三个单词:‘apple‘, ‘orange‘, ‘melo‘,某文档中,apple和melo出现过,那么其对应的词向量就是 {1, 0, 1}。

这种模型通常称为词集模型,如果词向量元素是整数类型,每个元素表示相应单词在文档中出现的次数(0表示不出现),那这种模型就叫做词袋模型。

如下部分代码可用于由文档构建词向量以及测试结果:

 1 #====================================
 2 #    输入:
 3 #        空
 4 #    输出:
 5 #        postingList:    文档列表
 6 #        classVec:        分类标签列表
 7 #====================================
 8 def loadDataSet():
 9     ‘创建测试数据‘
10
11     # 这组数据是从斑点狗论坛获取的
12     postingList=[[‘my‘, ‘dog‘, ‘has‘, ‘flea‘, ‘problems‘, ‘help‘, ‘please‘],
13                  [‘maybe‘, ‘not‘, ‘take‘, ‘him‘, ‘to‘, ‘dog‘, ‘park‘, ‘stupid‘],
14                  [‘my‘, ‘dalmation‘, ‘is‘, ‘so‘, ‘cute‘, ‘I‘, ‘love‘, ‘him‘],
15                  [‘stop‘, ‘posting‘, ‘stupid‘, ‘worthless‘, ‘garbage‘],
16                  [‘mr‘, ‘licks‘, ‘ate‘, ‘my‘, ‘steak‘, ‘how‘, ‘to‘, ‘stop‘, ‘him‘],
17                  [‘quit‘, ‘buying‘, ‘worthless‘, ‘dog‘, ‘food‘, ‘stupid‘]]
18
19     # 1 表示带敏感词汇
20     classVec = [0,1,0,1,0,1]
21
22     return postingList,classVec
23
24 #====================================
25 #    输入:
26 #        dataSet: 文档列表
27 #    输出:
28 #        list(vocabSet):    词汇表
29 #====================================
30 def createVocabList(dataSet):
31     ‘创建词汇表‘
32
33     vocabSet = set([])
34     for document in dataSet:    # 遍历文档列表
35         # 首先将当前文档的单词唯一化,然后以交集的方式加入到保存词汇的集合中。
36         vocabSet = vocabSet | set(document)
37
38     return list(vocabSet)
39
40 #====================================
41 #    输入:
42 #        vocabList:     词汇表
43 #        inputSet:       待转换文档
44 #    输出:
45 #        returnVec:    转换结果 - 词向量
46 #====================================
47 def setOfWords2Vec(vocabList, inputSet):
48     ‘将文档转换为词向量‘
49
50     returnVec = [0]*len(vocabList)
51     for word in inputSet:
52         if word in vocabList:
53             returnVec[vocabList.index(word)] = 1
54         else: print "单词: %s不在词汇表当中"  % word
55     return returnVec
56
57 def test():
58     ‘测试‘
59
60     listOPosts, listClasses = loadDataSet()
61     myVocabList = createVocabList(listOPosts)
62     print setOfWords2Vec(myVocabList, listOPosts[0])

测试结果:

算法原理

不论是用于训练还是分类的文档,首先一致处理为词向量。

通过贝叶斯算法对数据集进行训练,从而统计出所有词向量各种分类的概率。

对于待分类的文档,在转换为词向量之后,从训练集中取得该词向量为各种分类的概率,概率最大的分类就是所求分类结果。

训练算法剖析:如何计算某个词向量的概率

由贝叶斯准则可知,某词向量X为分类 Ci 的概率可用如下公式来进行计算:

p(ci)表示该文档为分类ci的概率;p(w)为该文档对应词向量为w的概率;这两个量是很好求的,这里不多解释。关键要解决的是 p(w|ci),也即在文档为分类 ci 的条件下,词向量为w的概率。

这里就要谈到为什么本文讲解的算法名为 "朴素" 贝叶斯。所谓朴素,就是整个形式化过程只做最原始假设。也就是说,假设不同的特征是相互独立的。但这和现实世界不一致,也导致了其他各种形形色色的贝叶斯算法。

在这样的假设前提下: p(w|ci) = p(w0|ci) * p(w1|ci) * p(w2|ci) * .... * p(wn|ci)。

而前面提到了w是指词向量,这里wn的含义就是词向量中的某个单词。

可使用如下伪代码计算条件概率 p(wn|ci):

1 对每篇训练文档:
2     对每个类别:
3         增加该单词计数值
4         增加所有单词计数值
5     对每个类别:
6         对每个单词:
7             将该单词的数目除以单词总数得到条件概率
8 返回所有单词在各个类别下的条件概率

请注意如下的具体代码中,对应上述伪代码的第2行,第8行的部分都采用了向量来计算:

 1 #=============================================
 2 #    输入:
 3 #        trainMatrix:       文档矩阵
 4 #        trainCategory:       分类标签集
 5 #    输出:
 6 #        p0Vect:    各单词在分类0的条件下出现的概率
 7 #        p1Vect:    各单词在分类1的条件下出现的概率
 8 #        pAbusive:  文档属于分类1的概率
 9 #=============================================
10 def trainNB0(trainMatrix,trainCategory):
11     ‘朴素贝叶斯分类算法‘
12
13     # 文档个数
14     numTrainDocs = len(trainMatrix)
15     # 文档词数
16     numWords = len(trainMatrix[0])
17     # 文档属于分类1的概率
18     pAbusive = sum(trainCategory)/float(numTrainDocs)
19     # 属于分类0的词向量求和
20     p0Num = numpy.zeros(numWords);
21     # 属于分类1的词向量求和
22     p1Num = numpy.zeros(numWords)
23
24     # 分类 0/1 的所有文档内的所有单词数统计
25     p0Denom = .0; p1Denom = .0
26     for i in range(numTrainDocs):   # 遍历各文档
27
28         # 若文档属于分类1
29         if trainCategory[i] == 1:
30             # 词向量累加
31             p1Num += trainMatrix[i]
32             # 分类1文档单词数累加
33             p1Denom += sum(trainMatrix[i])
34
35         # 若文档属于分类0
36         else:
37             # 词向量累加
38             p0Num += trainMatrix[i]
39             # 分类0文档单词数累加
40             p0Denom += sum(trainMatrix[i])
41
42     p1Vect = p1Num/p1Denom
43     p0Vect = p0Num/p0Denom
44
45     return p0Vect,p1Vect,pAbusive
46
47 def test():
48     ‘测试‘
49
50     listOPosts, listClasses = loadDataSet()
51     myVocabList = createVocabList(listOPosts)
52
53     # 创建文档矩阵
54     trainMat = []
55     for postinDoc in listOPosts:
56         trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
57
58     # 对文档矩阵进行朴素贝叶斯分类并返回各单词在各分类条件下的概率及文档为类别1的概率
59     p0V, p1V, pAb = trainNB0(trainMat, listClasses)
60
61     print p0V

测试结果:

朴素贝叶斯分类算法的完整实现

对于此公式:

上一步做的工作仅仅是将各个分量求出来了(p(w)为1),而没有进行p(w0|ci) * p(w1|ci) * p(w2|ci) * .... * p(wn|ci)的累乘,也没有进行概率大小的比较。

剩下的工作看似简单但在具体实现上也涉及到两个问题。

问题一:p(wn|ci) 中有一个为0,导致整个累乘结果也为0。这是错误的结论。

解决方法:将所有词的出现次数初始化为1,并将分母初始化为2。

问题二:即使 p(wn|ci) 不为0了,可是它的值也许会很小,这样会导致浮点数值类型的下溢出等精度问题错误。

解决方法:用 p(wn|ci) 的对数进行计算。

具体实现请参考下面代码。针对这两个问题,它对上一步的函数做了一点修改:

特别说明:在下面的代码实现中,w只包含在待分类文档中出现了的单词的特征位。

 1 #=============================================
 2 #    输入:
 3 #        trainMatrix:     文档矩阵
 4 #        trainCategory:       分类标签集
 5 #    输出:
 6 #        p0Vect:    各单词在分类0的条件下出现的概率
 7 #        p1Vect:    各单词在分类1的条件下出现的概率
 8 #        pAbusive:    文档属于分类1的概率
 9 #=============================================
10 def trainNB0(trainMatrix,trainCategory):
11     ‘朴素贝叶斯分类算法‘
12
13     # 文档个数
14     numTrainDocs = len(trainMatrix)
15     # 文档词数
16     numWords = len(trainMatrix[0])
17     # 文档属于分类1的概率
18     pAbusive = sum(trainCategory)/float(numTrainDocs)
19     # 属于分类0的词向量求和
20     p0Num = numpy.ones(numWords);
21     # 属于分类1的词向量求和
22     p1Num = numpy.ones(numWords)
23
24     # 分类 0/1 的所有文档内的所有单词数统计
25     p0Denom = 2.0; p1Denom = 2.0
26     for i in range(numTrainDocs):   # 遍历各文档
27
28         # 若文档属于分类1
29         if trainCategory[i] == 1:
30             # 词向量累加
31             p1Num += trainMatrix[i]
32             # 分类1文档单词数累加
33             p1Denom += sum(trainMatrix[i])
34
35         # 若文档属于分类0
36         else:
37             # 词向量累加
38             p0Num += trainMatrix[i]
39             # 分类0文档单词数累加
40             p0Denom += sum(trainMatrix[i])
41
42     p1Vect = numpy.log(p1Num/p1Denom)
43     p0Vect = numpy.log(p0Num/p0Denom)
44
45     return p0Vect,p1Vect,pAbusive

完善公式的实现,并编写测试代码:

 1 #=============================================
 2 #    输入:
 3 #        vec2Classify:     目标对象的词向量的数组形式
 4 #        p0Vect:    各单词在分类0的条件下出现的概率
 5 #        p1Vect:    各单词在分类1的条件下出现的概率
 6 #        pClass1:  文档属于分类1的概率
 7 #    输出:
 8 #        分类结果 0/1
 9 #=============================================
10 def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
11     ‘完成贝叶斯公式剩余部分得到最终分类概率‘
12
13     # 为分类1的概率
14     p1 = sum(vec2Classify * p1Vec) + numpy.log(pClass1)
15     # 为分类0的概率
16     p0 = sum(vec2Classify * p0Vec) + numpy.log(1.0 - pClass1)
17     if p1 > p0:
18         return 1
19     else:
20         return 0
21
22 def test():
23     ‘测试‘
24
25     listOPosts,listClasses = loadDataSet()
26     myVocabList = createVocabList(listOPosts)
27
28     # 创建文档矩阵
29     trainMat=[]
30     for postinDoc in listOPosts:
31         trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
32
33     # 对文档矩阵进行朴素贝叶斯分类并返回各单词在各分类条件下的概率及文档为类别1的概率
34     p0V,p1V,pAb = trainNB0(numpy.array(trainMat),numpy.array(listClasses))
35
36     # 测试一
37     testEntry = [‘love‘, ‘my‘, ‘dalmation‘]
38     thisDoc = numpy.array(setOfWords2Vec(myVocabList, testEntry))
39     print testEntry,‘分类结果: ‘,classifyNB(thisDoc,p0V,p1V,pAb)
40
41     # 测试二
42     testEntry = [‘stupid‘, ‘garbage‘]
43     thisDoc = numpy.array(setOfWords2Vec(myVocabList, testEntry))
44     print testEntry,‘分类结果: ‘,classifyNB(thisDoc,p0V,p1V,pAb)

测试结果:

小结

1. 为突出重点,本文示例仅采用两个分类做测试。更多分类是同理的。

2. 程序设计中应尽量以矩阵或者向量为单位来处理数据。这样能简化代码,增加效率,也能提高程序可读性。

3. 该分类算法的优点是对于数据集较少的情况也能适用,能处理多类别问题;然而不足之处在于对数据集的准备方式比较敏感。

时间: 2024-07-30 13:50:44

第五篇:朴素贝叶斯分类算法原理分析与代码实现的相关文章

朴素贝叶斯分类算法原理分析与代码实现

前言 本文介绍机器学习分类算法中的朴素贝叶斯分类算法并给出伪代码,Python代码实现. 词向量 朴素贝叶斯分类算法常常用于文档的分类,而且实践证明效果是挺不错的. 在说明原理之前,先介绍一个叫词向量的概念. --- 它一般是一个布尔类型的集合,该集合中每个元素都表示其对应的单词是否在文档中出现. 对应关系和词汇表一一对应. 比如说,词汇表只有三个单词:'apple', 'orange', 'melo',某文档中,apple和melo出现过,那么其对应的词向量就是 {1, 0, 1}. 这种模型

数据挖掘系列(8)朴素贝叶斯分类算法原理与实践

隔了很久没有写数据挖掘系列的文章了,今天介绍一下朴素贝叶斯分类算法,讲一下基本原理,再以文本分类实践. 一个简单的例子 朴素贝叶斯算法是一个典型的统计学习方法,主要理论基础就是一个贝叶斯公式,贝叶斯公式的基本定义如下: 这个公式虽然看上去简单,但它却能总结历史,预知未来.公式的右边是总结历史,公式的左边是预知未来,如果把Y看出类别,X看出特征,P(Yk|X)就是在已知特征X的情况下求Yk类别的概率,而对P(Yk|X)的计算又全部转化到类别Yk的特征分布上来. 举个例子,大学的时候,某男生经常去图

朴素贝叶斯分类算法介绍及python代码实现案例

朴素贝叶斯分类算法 1.朴素贝叶斯分类算法原理 1.1.概述 贝叶斯分类算法是一大类分类算法的总称 贝叶斯分类算法以样本可能属于某类的概率来作为分类依据 朴素贝叶斯分类算法是贝叶斯分类算法中最简单的一种 注:朴素的意思是条件概率独立性 P(A|x1x2x3x4)=p(A|x1)*p(A|x2)p(A|x3)p(A|x4)则为条件概率独立 P(xy|z)=p(xyz)/p(z)=p(xz)/p(z)*p(yz)/p(z) 1.2.算法思想 朴素贝叶斯的思想是这样的: 如果一个事物在一些属性条件发生

第十四篇:Apriori 关联分析算法原理分析与代码实现

前言 想必大家都听过数据挖掘领域那个经典的故事 - "啤酒与尿布" 的故事. 那么,具体是怎么从海量销售信息中挖掘出啤酒和尿布之间的关系呢? 这就是关联分析所要完成的任务了. 本文将讲解关联分析领域中最为经典的Apriori算法,并给出具体的代码实现. 关联分析领域的一些概念 1. 频繁项集: 数据集中经常出现在一起的物品的集合.例如 "啤酒和尿布" 2. 关联规则: 指两个物品集之间可能存在很强的关系.例如 "{啤酒} -> {尿布}"

Apriori 关联分析算法原理分析与代码实现

前言 想必大家都听过数据挖掘领域那个经典的故事 - "啤酒与尿布" 的故事. 那么,具体是怎么从海量销售信息中挖掘出啤酒和尿布之间的关系呢? 这就是关联分析所要完成的任务了. 本文将讲解关联分析领域中最为经典的Apriori算法,并给出具体的代码实现. 关联分析领域的一些概念 1. 频繁项集: 数据集中经常出现在一起的物品的集合.例如 "啤酒和尿布" 2. 关联规则: 指两个物品集之间可能存在很强的关系.例如 "{啤酒} -> {尿布}"

K-Means 聚类算法原理分析与代码实现

前言 在前面的文章中,涉及到的机器学习算法均为监督学习算法. 所谓监督学习,就是有训练过程的学习.再确切点,就是有 "分类标签集" 的学习. 现在开始,将进入到非监督学习领域.从经典的聚类问题展开讨论.所谓聚类,就是事先并不知道具体分类方案的分类 (允许知道分类个数). 本文将介绍一个最为经典的聚类算法 - K-Means 聚类算法以及它的两种实现. 现实中的聚类分析问题 - 总统大选 假设 M 国又开始全民选举总统了,目前 Mr.OBM 的投票率为48%(投票数占所有选民人数的百分比

第六篇:基于朴素贝叶斯分类算法的邮件过滤系统

前言 朴素贝叶斯算法最为广泛而经典的应用毫无疑问是文档分类,更具体的情形是邮件过滤系统. 本文详细地讲解一个基于朴素贝叶斯分类算法的邮件过滤系统的具体实现. 本文侧重于工程实现,至于其中很多算法的细节请参考之前的一篇文章:朴素贝叶斯分类算法原理分析与代码实现. 准备数据:切分文本 获取到文本文件之后,首先要做的是两件事情: 1. 将文本文件转换为词汇列表 2. 将上一步的结果进一步转换为词向量 对于 1,具体来说,就是将文本文件以非字母或数字之外的字符为界进行切割. 仅仅使用字符串的 split

基于朴素贝叶斯分类算法的邮件过滤系统

转自穆晨 阅读目录 前言 准备数据:切分文本 训练并测试 小结 回到顶部 前言 朴素贝叶斯算法最为广泛而经典的应用毫无疑问是文档分类,更具体的情形是邮件过滤系统. 本文详细地讲解一个基于朴素贝叶斯分类算法的邮件过滤系统的具体实现. 本文侧重于工程实现,至于其中很多算法的细节请参考之前的一篇文章:朴素贝叶斯分类算法原理分析与代码实现. 回到顶部 准备数据:切分文本 获取到文本文件之后,首先要做的是两件事情: 1. 将文本文件转换为词汇列表 2. 将上一步的结果进一步转换为词向量 对于 1,具体来说

算法 - 朴素贝叶斯分类算法

带你搞懂朴素贝叶斯分类算法 带你搞懂朴素贝叶斯分类算 贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类.而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法.这篇文章我尽可能用直白的话语总结一下我们学习会上讲到的朴素贝叶斯分类算法,希望有利于他人理解. 1  分类问题综述 对于分类问题,其实谁都不会陌生,日常生活中我们每天都进行着分类过程.例如,当你看到一个人,你的脑子下意识判断他是学生还是社会上的人:你可能经常会走在路上对身旁的朋友说“这个人一看就很