Contents
- 理论基础
- 熵
- 信息增益
- 算法实现 Python
- 模型的保存与读取
- 总结
理论基础
决策树(Decision Tree, DT):决策树是一种基本的分类与回归方法。由于模型呈树形结构,可以看做是if-then规则的集合,具有一定的可读性,可视化效果好。
决策树的建立包括3个步骤:特征选择、决策树生成和决策树的修剪。
模型的建立实际上就是通过某种方式,递归地选择最优的特征,并通过数据的划分,将无序的数据变得有序。
因此,在构造决策树时,第一个需要解决的问题就是如何确定出哪个特征在划分数据分类是起决定性作用,或者说先使用哪个属性进行划分能够使数据的不确定性减少的更多,从而使数据变得更有序,分类效果更好,也就是接下来要介绍的熵和信息增益的概念。当找到最优特征后,数据集依据此特征划分为几个数据子集,这些数据会分布在该决策点的所有分支中。此时,如果某个分支下的数据属于同一类型,则该分支下的数据分类已经完成,无需进行下一步的数据集分类;如果分支下的数据子集内数据不属于同一类型,那么就要重复划分该数据集的过程,按照划分原始数据集相同的原则,确定出该数据子集中的最优特征,继续对数据子集进行分类,直到所有的特征已经遍历完成,或者所有叶结点分支下的数据具有相同的分类。
在介绍决策树的具体理论之前,先来看一看决策树的基本结构(其结构与二叉树有相似之处):
- 左图中,圆圈为属性,也是内部节点,在结构化数据中就是数据的列名;矩形为类,也被称为叶节点,也就是数据的标签。
- 右图中,为一个简易的相亲决策的实例,对应的绿色部分为属性,包括年龄、长相、收入、是否为公务员等。箭头上的为划分的依据,对于离散数据,依据离散的属性进行划分即可,例如帅或中等,丑;对于连续数据,可以以某一范围进行划分,例如小于等于30岁和大于30岁。橙色部分为叶节点,即决策目标:见或不见。
从上图可以看出,决策树具有良好的可读性。
熵
熵:即对随机变量不确定性程度的度量。熵越大,随机变量的不确定性越大。
从上式可以看出,当随机变量只取两个值时,即
此时,熵的分布如下图所示:
当p=0.5时,也就是随机变量的两个值发生的概率相等时,此时事件发生的不确定性最大,熵也最大; 当p=0或p=1时,此时为确定事件,不存在不确定性,熵为0。
在选择了某一属性后,此时的熵即为在该属性确定以后的条件熵:。条件熵是用于衡量当随机变量Y确定了以后,随机变量X的不确定性。
信息增益
信息增益:表示得知随机变量Y(属性)的信息而使得X的信息不确定性减少的程度。
通过对熵和条件熵概念的理解,信息增益(也称为互信息)可以表示为:
决策树就是通过信息增益的方式选择特征(不同的特征具有不同的信息增益),选择的方式是让选择信息增益最大,也就是选择能够使数据的不确定性减少最多的特征。
通过上述的介绍,决策树的训练数据集用于求各随机变量的概率pi。
决策树的特点:
- 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。
- 缺点:可能会产生过度匹配的问题
- 适用数据类型:数值型和标称型
算法实现
算法的实现需要通过以下步骤来实现:
1. 计算给定数据的熵
2. 划分数据集
3. 选择信息增益最大的特征
4. 定义叶子节点
5. 生成决策树
具体实例如下:
1. 将上述表格量化,生成数据
1 import math, operator 2 3 def createDataSet(): 4 ‘‘‘ 5 生成一个简单的数据集 6 :return: 数据 标签 7 ‘‘‘ 8 dataSet = [[1,1,‘yes‘], 9 [1,1,‘yes‘], 10 [1,0,‘no‘], 11 [0,1,‘no‘], 12 [0,1,‘no‘]] 13 labels = [‘no surfacing‘, ‘flippers‘] 14 return dataSet, labels
2. 计算给定数据的熵(具体操作见函数注释)
1 def calcshannonEnt(dataSet): 2 ‘‘‘ 3 计算给定数据的熵H(x) 4 根据熵的计算公式,需要计算出每一类 或者每个标签 在给定数据中出现的概率 5 因此: 6 1. 统计给定数据中,各类(标签)出现的次数 7 2. 根据各类出现的次数,计算熵H(x) 8 :param dataSet: 给定数据 9 :return: 数据的熵 一个确切的值 10 ‘‘‘ 11 numEntries = len(dataSet) # 有几条数据 12 13 # 统计给定的数据中各个标签出现的次数 用于计算概率 14 labelCounts = {} # 用来记录已经选择过得特征 15 for featVec in dataSet: 16 currentLabel = featVec[-1] # 每条数据的标签记录 17 if currentLabel not in labelCounts.keys(): 18 labelCounts[currentLabel] = 0 19 labelCounts[currentLabel] += 1 # 用来记录每一个标签出现的次数 20 shannonEnt = 0.0 21 # 熵的计算 22 for key in labelCounts: 23 prob = float(labelCounts[key])/numEntries # 计算概率 24 shannonEnt -= prob * math.log(prob, 2) # 计算熵 数据的熵 需要所有类别都进行求和 衡量数据的复杂程度 25 return shannonEnt
3. 对每个特征划分数据
1 def splitDataSet(dataSet, axis, value): 2 ‘‘‘ 3 对每个特征划分数据集 4 根据 axis 的设定值value进行数据划分,也就是说,axis是输入的是特征的序号, 而value是该特征对应的类型,意在寻找负荷该特征类型的数据 5 而最终需要的返回的是 符合该特征类型, 并除去该特征的数据 (因为该特征已经作为了父节点) 6 :param dataSet: 待划分数据集 7 :param axis: 数据的第几个特征 8 :param value: axis特征对应的值 9 :return: 符合该特征的其余特征 标签数据 10 ‘‘‘ 11 retDataSet = [] 12 for featVec in dataSet: 13 if featVec[axis] == value: 14 reducedFeatVec = featVec[:axis] 15 reducedFeatVec.extend(featVec[axis+1:]) # 两头拼 extend拼接不新增维度 16 retDataSet.append(reducedFeatVec) # 整体拼 append拼接新增维度 17 return retDataSet
需要说明的是:
(1)在划分数据集函数中,传递的参数dataSet列表的引用,在函数内部对该列表对象进行修改,会导致列表内容发生改变,于是,为了消除该影响,我们应该在函数中创建一个新的列表对象,将对列表对象操作后的数据集存入新的列表对象中
(2)需要区分一下append()函数和extend()函数
这两种方法的功能类似,都是在列表末尾添加新元素,但是在处理多个列表时,处理结果有所不同:
比如:a=[1,2,3],b=[4,5,6]
那么a.append(b)的结果为:[1,2,3,[4,5,6]],即使用append()函数会在列表末尾添加人新的列表对象b
而a.extend(b)的结果为:[1,2,3,4,5,6]
4. 选择信息增益最大的特征
1 def chooseBestFeatureToSplit(dataSet): 2 ‘‘‘ 3 选择当前最适合做分类的特征 4 1. 计算数据集的熵 H(x) 5 2. 按照特征循环(数据去掉标签), 6 2.1 在循环中,把每个特征的值都拿出来 7 2.2 去重,便可以看出该特征有几种情况 也就是有多少个分支 8 2.3 根据每一种情况 选取该类型的数据 也是数据划分 用到splitDataSet, 分支循环 (两层训话嵌套) 9 3. 计算当前特征的熵 根据循环结果 和 联合熵的计算 10 4. 计算信息增益 并 贪婪的选择增益最大的 11 :param dataSet: 数据集 12 :return: 当前最适合做分类的特征的坐标 13 ‘‘‘ 14 # 特征的个数 15 numFeatures = len(dataSet[0]) - 1 # 长度减1 把标签去了 为了只选取特征 16 # 计算数据的熵 17 baseEntropy = calcshannonEnt(dataSet) # 计算整个数据的熵 18 bestInfoGain = 0.0 19 bestFeature = -1 20 21 for i in range(numFeatures): # 在特征中循环 22 featList = [example[i] for example in dataSet] # 所有数据中,该类特征的值 23 uniqueVals = set(featList) # 去重了 就是该类特征会分成几种情况, 也就是说如果以该特征划分 有几个分支 24 newEntropy = 0.0 25 for value in uniqueVals: # 分支的循环 26 subDataSet = splitDataSet(dataSet, i, value) # 按照特征, 分支划分数据集 27 prob = len(subDataSet) / float(len(dataSet)) 28 newEntropy += prob * calcshannonEnt(subDataSet) 29 infoGain = baseEntropy - newEntropy # 信息增益的求取--》I(x,y) = H(x) - H(x|y) 30 if infoGain > bestInfoGain: 31 bestInfoGain = infoGain 32 bestFeature = i 33 return bestFeature
5. 定义叶子节点
1 def majorityCnt(classList): 2 ‘‘‘ 3 定义叶子节点 4 :param classList: 5 :return: 返回排序结果最优的作为节点 6 ‘‘‘ 7 classCount = {} 8 for vote in classList: 9 if vote not in classCount.keys(): 10 classCount[vote] = 0 11 classCount[vote] += 1 12 sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) # 字典排序 13 return sortedClassCount[0][0]
6. 创建决策树
1 def createTree(dataSet, labels): 2 ‘‘‘ 3 递归生成决策树 4 :param dataSet: 数据集 5 :param labels: 标签 6 :return: 字典形式的决策树 7 ‘‘‘ 8 classList = [example[-1] for example in dataSet] # 取标签 9 if classList.count(classList[0]) == len(classList): 10 return classList[0] 11 12 if len(dataSet[0]) == 1: 13 return majorityCnt(classList) 14 bestFeat = chooseBestFeatureToSplit(dataSet) 15 bestFeatLabel = labels[bestFeat] 16 myTree = {bestFeatLabel: {}} 17 # del(labels[bestFeat]) # del 会直接修改原数据 造成 ‘no surfacing‘ is not in list 的错误 18 subLabels = labels[:] 19 del(subLabels[bestFeat]) 20 featValues = [example[bestFeat] for example in dataSet] # 该特征下的值 21 uniquevals = set(featValues) 22 # 根据该标签下的值进行划分 递归 23 for value in uniquevals: 24 subLabels = subLabels[:] 25 myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), subLabels) 26 return myTree
需要注意的是,第17行注释的代码,直接del 回修改原数据,造成‘no surfacing‘ is not in list 的错误。应使用第18行19行的代码。
7. 决策树使用接口
在生成了决策树模型后,便可以使用测试数据进行验证。
1 def classify(inputTree, featLabels, testVec): 2 ‘‘‘ 3 分类函数 4 :param inputTree: 决策树 5 :param featLabels: 特征标签 6 :param testVec: 测试向量 7 :return: 8 ‘‘‘ 9 firstStr=next(iter(inputTree)) 10 # 下一个字典 11 secondDict=inputTree[firstStr] 12 featIndex=featLabels.index(firstStr) 13 14 for key in secondDict.keys(): 15 if testVec[featIndex] == key: 16 if type(secondDict[key]).__name__ == ‘dict‘: 17 classLabel=classify(secondDict[key], featLabels, testVec) 18 else: 19 classLabel=secondDict[key] 20 return classLabel
8. 调用
1 data, label = createDataSet() 2 # ret = splitDataSet(data, 1, 1) 3 # print(ret) 4 shannon = calcshannonEnt(data) 5 print(shannon) 6 bestFeat = chooseBestFeatureToSplit(data) 7 mytree = createTree(data, label) 8 print(mytree) 9 result = classify(mytree, label, [0, 0]) 10 print(result)
生成字典形式的决策树模型
测试结果:
模型的保存与读取
构造决策树是一项比较耗时的任务,构造好的决策参数可以将其保存下来,以便之后调用,而不用每次对数据分类时都重新学习一遍。回顾之前Knn算法的流程是无法构建持久化分类器的,难以通过参数保存模型。
在python中,模型的保存和读取有很多中方式,这里先介绍四种情况:
1. 将模型依格式直接写为txt(无论模型是什么样的格式)进行存储;读取时,将txt读入,并使用eval转换为原来的格式。
(决策树模型是字典格式)
模型保存:
1 def save_obj(obj, name): 2 ‘‘‘ 3 将字典保存成txt 用于存储模型的参数 4 :param obj: 要保存的文件 5 :param name: 要命名的名字 6 :return: 没有返回值 会在电脑中保存一个txt 7 ‘‘‘ 8 f = open(name + ‘.txt‘, ‘w‘) 9 f.write(str(obj)) 10 f.close()
模型读取:(将字符串类型的字典转化为字典,当然字符串类型的列表元组什么的都可以)
1 def load_obj(name): 2 ‘‘‘ 3 将txt读入, 并字典形式的字符串转成字典 4 :param name: 要读取文件的名字 不需要加.txt 5 :return: 返回一个字典类型的变量 其中包含模型的各种参数 6 ‘‘‘ 7 f = open(name + ‘.txt‘,‘r‘) 8 a = f.read() 9 # info_all = {} # 不需要给它命名格式 10 info_all = eval(a) 11 f.close() 12 return info_all
调用:
1 save_obj(mytree, ‘mytree‘) 2 mytree1 = load_obj(‘mytree‘)
2. 使用pickle模块依模型格式写为txt(无论模型是什么样的格式)进行存储;读取时,也使用pickle模块进行读取。
需要注意的是在python3中,使用pickle模块需要使用byte的存储可读取格式,即‘rb’, ‘wb’,否则会出现下述错误,python2中不需要。
pickle.dump(inputTree, fw)
TypeError: write() argument must be str, not bytes
模型存储:(需导入pickle模块)
1 def storeTree(inputTree, filename): 2 ‘‘‘ 3 模型存储 pickle 方式 4 :param inputTree: 决策树模型 5 :param filename: 保存文件名 6 :return: 7 ‘‘‘ 8 # import pickle 9 fw = open(filename, ‘wb‘) 10 pickle.dump(inputTree, fw) 11 fw.close()
模型读取:
1 def grabTree(filename): 2 ‘‘‘ 3 读取文件 4 :param filename: 文件名 5 :return: 返回读取信息 6 ‘‘‘ 7 # import pickle 8 fr = open(filename, ‘rb‘) 9 return pickle.load(fr)
调用:
1 storeTree(mytree, ‘mytree.txt‘) 2 my_tree1 = grabTree(‘mytree.txt‘)
3. 使用dill直接保存工作区(有时会有保存所有工作区的需求)
1 dill.dump_session(‘mytree.pkl‘)
4. numpy存储(这种方式会改变变量的类型转变为ndarray,适合numpy数组形式的变量)
1 np.save(‘A机各列信息.npy‘, info_all) 2 info_all_A = np.load(‘A机各列信息.npy‘)
总结
开始处理数据集时,首先需要测量集合中数据的不一致性,也就是熵,然后寻找最优方案划分数据集,直到数据集中的所有数据属于同一分类。
本文主要介绍的是决策树中的ID3算法,是通过信息增益划分数据,还有基尼系数等别的类型的决策树。例如C4.5,CART等。决策树一般很少单独使用,会结合随机森林使用。
原文地址:https://www.cnblogs.com/monologuesmw/p/10339551.html