统计学习方法笔记 提升树

提升树是以分类树或回归树为基本分类器的提升方法

提升树被认为是统计学习中性能最好的方法之一

提升方法实际采用加法模型(基函数的线性组合)与前向分步算法

以决策树为基函数的提升方法称为提升树

?

对分类问题决策树是二叉分类树

对回归问题决策树是二叉回归树

?

提升树模型可以表示为决策树的加法模型:

T(x;Θm)表示决策树;

Θm为决策树的参数;

M为树的个数。

提升树算法采用前向分步算法。

首先确定初始提升树f0(x)=0,第m歩的模型是

fm-1(x)为当前模型,通过经验风险极小化确定下一棵决策树的参数Θm

?

?

下面讨论针对不同问题的提升树学习算法,其主要区别在于使用的损失函数不同。

包括用平方误差损失函数的回归问题,用指数损失函数的分类问题

回归问题的提升树:

训练数据集T={(x1,y1),(x2,y2),…,(xN,yN)}

如果将输入空间x划分为J个互不相交的区域R1,R2,…,RJ,并且在每个区域上确定输出的常量cj,那么树可表示为

参数Θ={(R1,c1),(R2,c2),…,(RJ,cJ)}表示树的区域划分和各区域上的常数。

J是回归树的复杂度即叶结点个数。

利用如下前向分布算法:

在前向分步算法的第m步,给定当前模型fm-1(x),需求解

得到Θ,即第m棵树的参数。

当采用平方误差损失函数时:

其损失变为:

这里:

是当前模型拟合数据的残差(residual)。

所以,对回归问题的提升树算法来说,只需简单地拟合当前模型的残差。

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

?

时间: 2024-10-04 11:27:51

统计学习方法笔记 提升树的相关文章

统计学习方法笔记--监督学习

监督学习(supervised learning)的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测,计算机的基本操作就是给定一个输入产生一个输出. 基本概念:输入空间.特征空间与输出空间 在监督学习中,将输入与输出所有可能取值的集合分别称为输入空间(input space)与输出空间(output space). 每个具体的输入是一个实例(instance),通常有特征向量(feature vector)表示.这时,所有特征向量存在的空间称为特征空间(featur

统计学习方法笔记(1)——统计学习方法概论

1.统计学习 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称统计机器学习.统计学习是数据驱动的学科.统计学习是一门概率论.统计学.信息论.计算理论.最优化理论及计算机科学等多个领域的交叉学科. 统计学习的对象是数据,它从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,又回到对数据的分析与预测中去.统计学习关于数据的基本假设是同类数据具有一定的统计规律性,这是统计学习的前提. 统计学习的目的就是考虑学习什么样的模型和如何学习模型. 统计学习

统计学习方法 笔记<第一章>

第一章 统计学习方法概述 1.1 统计学习 统计学习(statistical learning)是关于计算机基于数据概率模型并运用模型进行预测和分析的学科.统计学习也称为统计机器学习,现在人们提及的机器学习一般都是指统计机器学习. 统计学习的对象是数据(data),关于数据的基本假设是同类数据具有一定的统计规律性(前提):比如可以用随机变量描述数据中的特征,用概率分布描述数据的统计规律等. 统计学习的目的:对现有的数据进行分析,构建概率统计模型,分析和预测未知新数据,同时也需要考虑模型的复杂度以

统计学习方法笔记 决策树

决策树(decision tree)是一种基本的分类与回归方法. 决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程. 它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布.其 主要优点是模型具有可读性,分类速度快.学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型. 预测时,对新的数据,利用决策树模型进行分类. 决策树学习通常包括3个步骤:特征选择.决策树的生成和决策树的修剪. 这些决策树学习的思想主要来源于由Quinlan在19

统计学习方法笔记 -- 隐马尔可夫模型

参考,隐马尔可夫模型(HMM)攻略 首先看看确定的状态序列,这种状态序列中状态的变化是确定的,比如 红绿灯,一定是绿灯->红灯->黄灯,这样的状态序列 当然也有些不确定状态序列,比如 天气,今天是晴天,你不能确定明天也一定是晴天或雨天 于是我们用概率来表示这种不确定性,称为马尔可夫过程 (Markov Process),马尔可夫过程的阶数表示当前状态依赖于过去几个状态,出于简单考虑往往用一阶马尔可夫过程,即当前状态仅仅取决于前一个状态. 马尔可夫过程,由状态集合,初始状态和状态转移矩阵组成,

统计学习方法笔记(KNN)

k近邻法(k-nearest neighbor,k-NN) 输入:实例的特征向量,对应于特征空间的点:输出:实例的类别,可以取多类. 分类时,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预测. 实例类别已定,不具有显式的学习过程.k近邻法实际上利用训练数据集对特征 向量空间进行划分,并作为其分类的"模型". 三个基本要素:k值的选择.距离度量及分类决策规则. ? KDtree 实现k近邻法时,主要考虑的问题是如何对训练数据进行快速k近邻搜索. k近邻法最简单的实现方法是线性

统计学习方法笔记2:感知机

1.感知机:二类分类的线性模型,输入为实例的特征向量,输出为某类别,取+1和-1.目的在求出将训练数据进行线性划分的分离超平面,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化求得感知机模型. 2.感知机模型: ,sign为符号函数,w为权值或权向量,b为偏置. 其几何解释:对应一个越平面,w为法向量,b截距. 3.感知机学习策略 1)数据集的线性可分性: 数据集,存在一个超平面S将数据集正实例和负实例完全分布在平面两侧. 2)策略: 任意点到超平面的距离:或 总距离:,在不考虑1/

统计学习方法笔记 Logistic regression

logistic distribution 设X是连续随机变量,X服从逻辑斯谛分布是指X具有下列分布函数和密度函数: 式中,μ为位置参数,γ>0为形状参数. 密度函数是脉冲函数 分布函数是一条Sigmoid曲线(sigmoid curve)即为阶跃函数 ? ? 二项逻辑斯谛回归模型 二项逻辑斯谛回归模型是如下的条件概率分布 x?Rn是输入,Y?{0,1}是输出,w?Rn和b?R是参数, w称为权值向量,b称为偏置,w·x为w和x的内积. 可以求得P(Y=1|x)和P(Y=0|x). 逻辑斯谛回归

统计学习方法 笔记<第二章 感知机>

第二章 感知机 感觉感知机这东西还是很简单的,随便写点. 感知机(perceptron)是二分类的线性分类器. 输入x表示实例的特征向量,输出y为实例的类别,由如下函数表示: 其中w为权值(weight)或权值向量(weight vector),b表示偏置(bias),sign为符号函数,里面的东西大于0就是1,否则是-1. 感知机属于判别模型(直接寻找输入到输出的映射函数,不关心联合概率什么的). 感知机的解释:wx + b = 0 对应于特征空间中的一个超平面S(超平面这个东西在二维上表示为