xgboost

推到xgb:

http://www.52cs.org/?p=429

原作者ppt:

http://download.csdn.net/detail/laoou123456laoou/9694013

xgb源码解读

http://mlnote.com/2016/10/05/a-guide-to-xgboost-A-Scalable-Tree-Boosting-System/

调参:

https://zhidao.baidu.com/question/1737905359123735067.html

时间: 2024-08-09 19:53:43

xgboost的相关文章

XGBoost:在Python中使用XGBoost

原文:http://blog.csdn.net/zc02051126/article/details/46771793 在Python中使用XGBoost 下面将介绍XGBoost的Python模块,内容如下: * 编译及导入Python模块 * 数据接口 * 参数设置 * 训练模型l * 提前终止程序 * 预测 A walk through python example for UCI Mushroom dataset is provided. 安装 首先安装XGBoost的C++版本,然后进

安装xgboost用于决策树细化分枝

xgboost的安装虽然复杂,但是经过很多任大佬的不懈努力,现在的安装明显简单了很多(前提是装好scipy.numpy): 下载xgboost链接:http://pan.baidu.com/s/1dFd39pZ 密码:13wb 下载完之后解压,进到python-package这个目录下执行命令: python setup.py install 接下来没有显示错误的话,就可以使用了 下载参考博客,感谢博客:http://blog.csdn.net/u013738531/article/detail

XGBoost理论资料汇总

XGBoost 与 Boosted Tree – 我爱计算机 http://www.52cs.org/?p=429 GBDT算法原理深入解析 - 杨旭东的专栏 - 博客频道 - CSDN.NET http://blog.csdn.net/yangxudong/article/details/53872141     GBDT算法原理深入解析 - 作业部落 Cmd Markdown 编辑阅读器 https://www.zybuluo.com/yxd/note/611571 xgboost原理 -

xgboost 自定义评价函数(metric)与目标函数

比赛得分公式如下: 其中,P为Precision , R为 Recall. GBDT训练基于验证集评价,此时会调用评价函数,XGBoost的best_iteration和best_score均是基于评价函数得出. 评价函数: input: preds和dvalid,即为验证集和验证集上的预测值, return  string 类型的名称 和一个flaot类型的fevalerror值表示评价值的大小,其是以error的形式定义,即当此值越大是认为模型效果越差. 1 from sklearn.met

如何在Mac OSX上安装xgboost

听说xgboost效果很不错,于是准备学习下,但是发现大多数资料都是在讲如何在windows或linux下安装xgboost,而且照着官方文档也没有正确的安装好多线程的xgboost.最后还是从there找到了方法. 1. Mac OSX系统一般自带python,打开终端输入python即可写python代码,所以python环境已经具备了. 2.安装 Homebrew , 类似于ubuntu中的apt-get和centos中的yum,是OSX里面的一个非常有用软件安装工具. /usr/bin/

Xgboost 安装(windows)

首先装git,之后操作都在git bash里 1.git clone --recursive https://github.com/dmlc/xgboost   2.cd xgboost   3.下载https://www.dropbox.com/s/y8myex4bnuzcp03/Makefile_win?dl=1的Makefile_win文件放到xgboost目录里 4.cp Makefile_win Makefile 5.cp make/mingw64.mk config.mk 6.安装T

xgboost原理

出处http://blog.csdn.net/a819825294 1.序 距离上一次编辑将近10个月,幸得爱可可老师(微博)推荐,访问量陡增.最近毕业论文与xgboost相关,于是重新写一下这篇文章. 关于xgboost的原理网络上的资源很少,大多数还停留在应用层面,本文通过学习陈天奇博士的PPT.论文.一些网络资源,希望对xgboost原理进行深入理解.(笔者在最后的参考文献中会给出地址) 2.xgboost vs gbdt 说到xgboost,不得不说gbdt,两者都是boosting方法

xgboost原理及应用

1.背景 关于xgboost的原理网络上的资源很少,大多数还停留在应用层面,本文通过学习陈天奇博士的PPT 地址和xgboost导读和实战 地址,希望对xgboost原理进行深入理解. 2.xgboost vs gbdt 说到xgboost,不得不说gbdt.了解gbdt可以看我这篇文章 地址,gbdt无论在理论推导还是在应用场景实践都是相当完美的,但有一个问题:第n颗树训练时,需要用到第n-1颗树的(近似)残差.从这个角度来看,gbdt比较难以实现分布式(ps:虽然难,依然是可以的,换个角度思

xgboost中如何自定义metric(python中)

正好在参加携程的比赛,用的xgboost的算法,但携程比赛的测评函数比较奇怪,不是传统的那些,而是取precision≥0.97的情况下,recall的最大值.那无疑这个测评函数是要自己写的(官方没给),可是我怎么把它放进xgboost里呢?这样我设置silent=1时,我每一步都能看到train和eval上的结果. 起初以为在param里定义了就行,但屡屡报错,后来终于找到了方法. 首先是metric的写法(直接拿携程比赛那个来说吧): def maxRecall(preds,dtrain):

xgboost在windows上的安装

xgboost是一个boosting+decision trees的工具包,看微博上各种大牛都说效果很好,于是下载一个,使用了一下,安装步骤如下. 第一步,编译生成xgboost.exe(用于CLI)以及xgboost_wrapper.dll(用于python).用vs打开xgboost-master源文件夹下的windows文件夹,打开解决方案,官方说明是需要使用x64,release,但是我的电脑是win 8.1 32位的,只好选择了win 32 选择"重新生成解决方案",发现有错