机器学习——决策树,DecisionTreeClassifier参数详解,决策树可视化查看树结构

0.决策树

  决策树是一种树型结构,其中每个内部节结点表示在一个属性上的测试,每一个分支代表一个测试输出,每个叶结点代表一种类别。

  决策树学习是以实例为基础的归纳学习

  决策树学习采用的是自顶向下的递归方法,其基本思想是以信息熵为度量构造一棵熵值下降最快的树。到叶子节点的处的熵值为零,此时每个叶结点中的实例都属于同一类。

1.决策树学习算法的特点

  决策树算法的最大优点是可以自学习。在学习的过程中,不需要使用者了解过多知识背景,只需要对训练实例进行较好的标注,就能够进行学习了。

  在决策树的算法中,建立决策树的关键,即在当前状态下选择哪个属性作为分类依据。根据不同的目标函数,建立决策树主要有一下三种算法:

  • ID3
  • C4.5
  • CART

  主要的区别就是选择的目标函数不同,ID3使用的是信息增益,C4.5使用信息增益率,CART使用的是Gini系数。

2.信息熵

  在信息论与概率统计中,熵(entropy)是表示随机变量不确定性的度量。设X是一个区有限个值的离散随机变量,其概率分布为:

  则随机变量X的熵的定义为:

  在上述式中,若pi=0,则定义0log0=0,通常,式中的对数以2为底或者以e为底(自然对数),这时熵的单位分别称作比特(bit)或者纳特(nat)。由定义可知,熵只依赖于X的分布,而与X的取值无关,所以也可以将X的熵记作H(p),即:

  熵越大,随机变量的不确定性就越大。从定义可以验证

  当随机变量确定时,熵的值最小为0,当熵值最大时,随机变量不确定性最大。

  设有随机变量(X,Y),其联合概率分布为

  条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:

  这里,pi=P(X=xi),i=1,2,......,n

  当熵和条件熵中的概率是有数据估计(极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵和条件经验熵。此时,如果有0概率,则令0log0=0.

  信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度。

  特征A对数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A的经验条件熵H(D|A)之差,即:

  一般地,熵H(Y)与条件熵H(Y|X)之差称为互信息。决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

3.模型建立

  具体的决策树算法流程,我们在这里就不仔细介绍了,详细算法可以参阅李航老师的《统计学习方法》一书。

 1 import numpy as np
 2 import matplotlib.pyplot as plt
 3 import matplotlib as mpl
 4 from sklearn.tree import DecisionTreeClassifier
 5
 6
 7 def iris_type(s):
 8     it = {b‘Iris-setosa‘: 0, b‘Iris-versicolor‘: 1, b‘Iris-virginica‘: 2}
 9     return it[s]
10
11 iris_feature = u‘花萼长度‘, u‘花萼宽度‘, u‘花瓣长度‘, u‘花瓣宽度‘
12
13 if __name__ == "__main__":
14     mpl.rcParams[‘font.sans-serif‘] = [u‘SimHei‘]
15     mpl.rcParams[‘axes.unicode_minus‘] = False
16
17     path = ‘../dataSet/iris.data‘  # 数据文件路径
18     data = np.loadtxt(path, dtype=float, delimiter=‘,‘, converters={4: iris_type})
19     x_prime, y = np.split(data, (4,), axis=1)
20
21     feature_pairs = [[0, 1], [0, 2], [0, 3], [1, 2], [1, 3], [2, 3]]
22     plt.figure(figsize=(10, 9), facecolor=‘#FFFFFF‘)
23     for i, pair in enumerate(feature_pairs):
24         # 准备数据
25         x = x_prime[:, pair]
26
27         # 决策树学习
28         clf = DecisionTreeClassifier(criterion=‘entropy‘, min_samples_leaf=3)
29         dt_clf = clf.fit(x, y)
30
31         # 画图
32         N, M = 500, 500
33         x1_min, x1_max = x[:, 0].min(), x[:, 0].max()
34         x2_min, x2_max = x[:, 1].min(), x[:, 1].max()
35         t1 = np.linspace(x1_min, x1_max, N)
36         t2 = np.linspace(x2_min, x2_max, M)
37         x1, x2 = np.meshgrid(t1, t2)
38         x_test = np.stack((x1.flat, x2.flat), axis=1)
39
40
41         y_hat = dt_clf.predict(x)
42         y = y.reshape(-1)
43         c = np.count_nonzero(y_hat == y)    # 统计预测正确的个数
44         print(‘特征:  ‘, iris_feature[pair[0]], ‘ + ‘, iris_feature[pair[1]])
45         print(‘\t预测正确数目:‘, c)
46         print(‘\t准确率: %.2f%%‘ % (100 * float(c) / float(len(y))))
47
48         # 显示
49         cm_light = mpl.colors.ListedColormap([‘#A0FFA0‘, ‘#FFA0A0‘, ‘#A0A0FF‘])
50         cm_dark = mpl.colors.ListedColormap([‘g‘, ‘r‘, ‘b‘])
51         y_hat = dt_clf.predict(x_test)  # 预测值
52         y_hat = y_hat.reshape(x1.shape)
53         plt.subplot(2, 3, i+1)
54         plt.pcolormesh(x1, x2, y_hat, cmap=cm_light)
55         plt.scatter(x[:, 0], x[:, 1], c=y, edgecolors=‘k‘, cmap=cm_dark)
56         plt.xlabel(iris_feature[pair[0]], fontsize=14)
57         plt.ylabel(iris_feature[pair[1]], fontsize=14)
58         plt.xlim(x1_min, x1_max)
59         plt.ylim(x2_min, x2_max)
60         plt.grid()
61     plt.suptitle(u‘决策树对鸢尾花数据的两特征组合的分类结果‘, fontsize=18)
62     plt.tight_layout(2)
63     plt.subplots_adjust(top=0.92)
64     plt.show()

  在书面的代码中,为了可视化的方便,我们采用特征组合的方式,将鸢尾花的四个两两进行组合,分别建立决策树模型,并对其进行验证。

  DecisionTreeClassifier(criterion=‘entropy‘, min_samples_leaf=3)函数为创建一个决策树模型,其函数的参数含义如下所示:

  • criterion:gini或者entropy,前者是基尼系数,后者是信息熵。
  • splitter: best or random 前者是在所有特征中找最好的切分点 后者是在部分特征中,默认的”best”适合样本量不大的时候,而如果样本数据量非常大,此时决策树构建推荐”random” 。
  • max_features:None(所有),log2,sqrt,N  特征小于50的时候一般使用所有的
  • max_depth:  int or None, optional (default=None) 设置决策随机森林中的决策树的最大深度,深度越大,越容易过拟合,推荐树的深度为:5-20之间。
  • min_samples_split:设置结点的最小样本数量,当样本数量可能小于此值时,结点将不会在划分。
  • min_samples_leaf: 这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于样本数,则会和兄弟节点一起被剪枝。
  • min_weight_fraction_leaf: 这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝默认是0,就是不考虑权重问题。
  • max_leaf_nodes: 通过限制最大叶子节点数,可以防止过拟合,默认是"None”,即不限制最大的叶子节点数。
  • class_weight: 指定样本各类别的的权重,主要是为了防止训练集某些类别的样本过多导致训练的决策树过于偏向这些类别。这里可以自己指定各个样本的权重,如果使用“balanced”,则算法会自己计算权重,样本量少的类别所对应的样本权重会高。
  • min_impurity_split: 这个值限制了决策树的增长,如果某节点的不纯度(基尼系数,信息增益,均方差,绝对差)小于这个阈值则该节点不再生成子节点。即为叶子节点 。

  plt.suptitle(u‘决策树对鸢尾花数据的两特征组合的分类结果‘, fontsize=18)设置整个大画布的标题

  plt.tight_layout(2) 调整图片的布局

  plt.subplots_adjust(top=0.92) 自适应,绘图距顶部的距离为0.92

  结果如下:

不同的特征组合的决策树模型的准确率:

4.决策树的保存

  当我们通过建立好决策树之后,我们应该怎样查看建立好的决策树呢?sklearn已经帮助我们写好了方法,代码如下:

1 from sklearn import tree  #需要导入的包
2
3 f = open(‘../dataSet/iris_tree.dot‘, ‘w‘)
4 tree.export_graphviz(model.get_params(‘DTC‘)[‘DTC‘], out_file=f)

  当我们运行之后,程序会生成一个.dot的文件,我们能够通过word打开这个文件,你看到的是树节点的一些信息,我们通过graphviz工具能够查看树的结构:

原文地址:https://www.cnblogs.com/baby-lily/p/10646226.html

时间: 2024-10-11 01:07:07

机器学习——决策树,DecisionTreeClassifier参数详解,决策树可视化查看树结构的相关文章

VLC命令行参数详解

VLC命令行参数详解 2012-11-29 14:00 6859人阅读 评论(0) 收藏 举报 Usage: vlc [options] [stream] ...You can specify multiple streams on the commandline. They will be enqueued in the playlist.The first item specified will be played first. Options-styles:  --option  A gl

带你玩转Logview: MaxCompute Logview参数详解和问题排查

摘要: 对于Logview上的诸多参数信息,究竟应该怎么"拨开云雾",发现问题所在呢?又如何通过Logview了解每个instance.task运行状态及资源占用情况,如何分析执行计划,分析query存在问题,找到Long-Tails task,让数据分析业务高效又省钱呢?本文中,阿里巴巴计算平台产品专家云花将为大家揭晓答案. 摘要:Logview是MaxCompute Job提交后查看和Debug任务的工具.通过Logview可看到一个Job的运行状态.运行结果以及运行细节和每个步骤

jquery ajax 方法及各参数详解

jquery ajax 方法及各参数详解 1.$.ajax() 只有一个参数:参数 key/value 对象,包含各配置及回调函数信息. 参数列表: 参数名 类型 描述 url String (默认: 当前页地址) 发送请求的地址. type String (默认: "GET") 请求方式 ("POST" 或 "GET"), 默认为 "GET".注意:其它 HTTP 请求方法,如 PUT 和 DELETE 也可以使用,但仅部分

Nginx内置变量以及日志格式变量参数详解

Nginx内置变量以及日志格式变量参数详解 $args #请求中的参数值 $query_string #同 $args $arg_NAME #GET请求中NAME的值 $is_args #如果请求中有参数,值为"?",否则为空字符串 $uri #请求中的当前URI(不带请求参数,参数位于$args),可以不同于浏览器传递的$request_uri的值,它可以通过内部重定向,或者使用index指令进行修改,$uri不包含主机名,如"/foo/bar.html". $d

MySQL配置文件mysql.ini参数详解、MySQL性能优化

MySQL配置文件mysql.ini参数详解.MySQL性能优化 my.ini(Linux系统下是my.cnf),当mysql服务器启动时它会读取这个文件,设置相关的运行环境参数. my.ini分为两块:Client Section和Server Section.   Client Section用来配置MySQL客户端参数.   要查看配置参数可以用下面的命令: show variables like '%innodb%'; # 查看innodb相关配置参数 show status like

JQuery中$.ajax()方法参数详解

url: 要求为String类型的参数,(默认为当前页地址)发送请求的地址. type: 要求为String类型的参数,请求方式(post或get)默认为get.注意其他http请求方法,例如put和 delete也可以使用,但仅部分浏览器支持. timeout: 要求为Number类型的参数,设置请求超时时间(毫秒).此设置将覆盖$.ajaxSetup()方法的全局设 置. async:要求为Boolean类型的参数,默认设置为true,所有请求均为异步请求. 如果需要发送同步请求,请将此选项

day01_linux中与Oracle有关的内核参数详解

linux中与Oracle有关的内核参数详解 在安装Oracle的时候需要调整linux的内核参数,但是各参数代表什么含义呢,下面做详细解析. Linux安装文档中给出的最小值: fs.aio-max-nr = 1048576 fs.file-max = 6815744 kernel.shmall = 2097152 kernel.shmmax = 4294967295 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 net.ipv4.ip

SWFTOOLS PDF2SWF 参数详解

转载至:http://blog.csdn.net/iamduoluo/article/details/6820329 SWFTools提供了一系列将各种文件转成swf的工具: font2swf.exe gif2swf.exe jpeg2swf.exe pdf2swf.exe png2swf.exe wav2swf.exe 具体的功能就顾名思义了. 其中把pdf转成swf的工具就是pdf2swf了.在命令行中运行pdf2swf src.pdf des.swf一般能满足需求.而命令行参数可以通过pd

httpUrlConnection的参数详解

post方式的的请求过程: // 设置是否向httpUrlConnection输出,因为这个是post请求,参数要放在 // http正文内,因此需要设为true, 默认情况下是false; httpUrlConnection.setDoOutput(true); // 设置是否从httpUrlConnection读入,默认情况下是true; httpUrlConnection.setDoInput(true); // Post 请求不能使用缓存 httpUrlConnection.setUse