Bagging-Adaboost-RF的粗糙理解

三种方法都是组合方法,组合方法是使用多个分类器进行投票【构造每个分类器的样本都是通过有放回抽样得到的】

1、Bagging(装袋):k次抽样,训练k次,得到k个模型(分类器),等权重投票

2、Adaboost(提升):【在样本抽取上做文章,按权取样本,按权投票】

  1)k次抽样:每个样本被抽到的机会由其权重决定(初始时样本权重一样)

  2)训练k次:每次训练结束后要使用得到模型的错误率(<0.5)来修改样本权重,提高那些前一轮弱分类器错误分类样本的权值,降低那些被正确分类样本的权值。

  3)得到k个模型:每个模型的权重由其错误率决定

  4)加权投票【累计】。

3、RF(随机森林)【在分裂属性上做文章】

  1)k次抽样(有放回抽样)

  2)训练k次:(独立训练,可以采用分布式计算)

      每次训练都是得到一棵决策树,可以用任意一种(不剪枝的)决策树算法(ID3/C45/CART),但是分裂节点使用的候选特征不再是全部特征。

      Rorest-RI:随机选择F个特征作为节点划分候选特征。

   Forest-RC:随机选择L个特征,并且从[-1,1]中随机选择系数,相加得到一个特征。由此法得到F个特征,使用CART进行分支

  3)得到k个模型:k棵决策树

  4)等权投票。



比较:

1、过拟合问题

  1)Bagging:不存在过拟合:因为它每个分类器都是独立的,训练数据不一样(行抽样)

  2)Adaboost:存在过拟合:因为它总是关注分错了的样本

  3) RF:不存在过拟合:因为每个分类器都是独立的,不但训练数据不同(行抽样),而且特征也不一样(列抽样,类似于领域专家)

2、性能比较

  1)Adaboost比Bagging准确率高,但存在过拟合

  2)RF准确率和Adaboost差不多,但更具鲁棒性,不存在过拟合,对F值敏感【通常取log2d+1,一般F=1的效果很好】

时间: 2024-10-22 12:30:10

Bagging-Adaboost-RF的粗糙理解的相关文章

Bagging 和RF的区别

跑训练无聊看了看别人的面经,发现自己一时半会答不上来,整理一下. 一.Bagging介绍 先看一个Bagging的一个概念图(图来自https://www.cnblogs.com/nickchen121/p/11214797.html) 从上图可以看出,Bagging的弱学习器之间的确没有boosting那样的联系.它的特点在“随机采样”.那么什么是随机采样?随机采样(bootsrap)就是从我们的训练集里面采集固定个数的样本,但是每采集一个样本后,都将样本放回.也就是说,之前采集到的样本在放回

Bagging与随机森林算法原理小结

在集成学习原理小结中,我们讲到了集成学习有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系.另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合.本文就对集成学习中Bagging与随机森林算法做一个总结. 随机森林是集成学习中可以和梯度提升树GBDT分庭抗礼的算法,尤其是它可以很方便的并行训练,在如今大数据大样本的的时代很有诱惑力. 1.  bagging的原理 在集成学习原理小结中,我们给Bagging画了下面一张原理图. 从上图可以看出,

《机器学习实战》AdaBoost算法的分析与实现

===================================================================== <机器学习实战>系列博客是博主阅读<机器学习实战>这本书的笔记也包含一些其他python实现的机器学习算法 github 源码同步:https://github.com/Thinkgamer/Machine-Learning-With-Python 算法实现均采用Python              如需转载请注明出处,谢谢 ========

基于Haar特征的Adaboost级联人脸检测分类器

基于Haar特征的Adaboost级联人脸检测分类器,简称haar分类器.通过这个算法的名字,我们可以看到这个算法其实包含了几个关键点:Haar特征.Adaboost.级联.理解了这三个词对该算法基本就掌握了. 1        算法要点 Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联: Haar分类器算法的要点如下: a)        使用Haar-like特征做检测. b)       使用积分图(IntegralImage)对Haar-like特

基于Haar特征Adaboost人脸检测级联分类

基于Haar特征Adaboost人脸检测级联分类,称haar分类器. 通过这个算法的名字,我们能够看到这个算法事实上包括了几个关键点:Haar特征.Adaboost.级联.理解了这三个词对该算法基本就掌握了. 1        算法要点 Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联: Haar分类器算法的要点例如以下: a)        使用Haar-like特征做检測. b)       使用积分图(IntegralImage)对Haar-like

机器学习算法之旅【转】

在理解了我们需要解决的机器学习问题之后,我们可以思考一下我们需要收集什么数据以及我们可以用什么算法.本文我们会过一遍最流行的机器学习算法,大致了解哪些方法可用,很有帮助. 机器学习领域有很多算法,然后每种算法又有很多延伸,所以对于一个特定问题,如何确定一个正确的算法是很困难的.本文中我想给你们两种方法来归纳在现实中会遇到的算法. 学习方式 根据如何处理经验.环境或者任何我们称之为输入的数据,算法分为不同种类.机器学习和人工智能课本通常先考虑算法可以适应的学习方式. 这里只讨论几个主要的学习风格或

机器学习算法概览

本文是翻译文章,但我并未逐字句的翻译,而是有所删减,并加入了一些自己的补充. 机器学习(Machine Learning, ML)是什么,作为一个MLer,经常难以向大家解释何为ML.久而久之,发现要理解或解释机器学习是什么,可以从机器学习可以解决的问题这个角度来说.对于MLers,理解ML解决的问题的类型也有助于我们更好的准备数据和选择算法. 十个机器学习问题样例 想入门机器学习的同学,经常会去看一些入门书,比如<集体智慧编程>.<机器学习实战>.<数据挖掘>.<

机器学习常用算法盘点

在本文中,我将提供两种分类机器学习算法的方法.一是根据学习方式分类,二是根据类似的形式或功能分类.这两种方法都很有用,不过,本文将侧重后者,也就是根据类似的形式或功能分类.在阅读完本文以后,你将会对监督学习中最受欢迎的机器学习算法,以及它们彼此之间的关系有一个比较深刻的了解. 下面是一张算法思维导图,点击放大查看. 从学习方式分类 算法对一个问题建模的方式很多,可以基于经历.环境,或者任何我们称之为输入数据的东西.机器学习和人工智能的教科书通常会让你首先考虑算法能够采用什么方式学习.实际上,算法

机器学习算法之旅(转载)

http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/ In this post, we take a tour of the most popular machine learning algorithms. It is useful to tour the main algorithms in the field to get a feeling of what methods are availabl