LightGBM

  • lightgbm:由于现在的比赛数据越来越大,想要获得一个比较高的预测精度,同时又要减少内存占用以及提升训练速度,lightgbm是一个非常不错的选择,其可达到与xgboost相似的预测效果。
  • xgboost:在lightgbm出来之前,是打比赛的不二之选,现在由于需要做模型融合以提高预测精度,所以也需要使用到xgboost。
  • ANN:得益于现在的计算机技术的高度发展,以及GPU性能的提高,还有Keras,tensorflow,pytorch等多重工具的使用,人工神经网络也可以作为最后模型融合的子模型之一,可以有效地提升最终的预测结果。

LightGBM是个快速的、分布式的、高性能的基于决策树算法的梯度提升框架。可用于排序、分类、回归以及很多其他的机器学习任务中。

模板:

import lightgbm as lgb
print("LGB test")
clf = lgb.LGBMClassifier(
        boosting_type=‘gbdt‘, num_leaves=55, reg_alpha=0.0, reg_lambda=1,
        max_depth=15, n_estimators=6000, objective=‘binary‘,
        subsample=0.8, colsample_bytree=0.8, subsample_freq=1,
        learning_rate=0.06, min_child_weight=1, random_state=20, n_jobs=4
    )
clf.fit(X_train, y_train)
pre=clf.predict(testdata)
print("starting first testing......")
clf = lgb.LGBMClassifier(
        boosting_type=‘gbdt‘, num_leaves=50, reg_alpha=0.0, reg_lambda=1,
        max_depth=-1, n_estimators=1500, objective=‘binary‘,
        subsample=0.7, colsample_bytree=0.7, subsample_freq=1,
        learning_rate=0.05, min_child_weight=50, random_state=2018, n_jobs=100
    )
clf.fit(X_train, y_train, eval_set=[(X_train, y_train)], eval_metric=‘auc‘,early_stopping_rounds=1000)
pre1=clf.predict(X_test)  

原文地址:https://www.cnblogs.com/nxf-rabbit75/p/9748292.html

时间: 2024-10-30 00:25:34

LightGBM的相关文章

【集成学习】lightgbm调参

lightgbm使用leaf_wise tree生长策略,leaf_wise_tree的优点是收敛速度快,缺点是容易过拟合. # lightgbm关键参数 # lightgbm调参方法cv 1 # -*- coding: utf-8 -*- 2 """ 3 # 作者:wanglei5205 4 # 邮箱:[email protected] 5 # 博客:http://cnblogs.com/wanglei5205 6 # github:http://github.com/wa

lightgbm论文翻译

Lightgbm:高效梯度提升决策树摘要:梯度提升决策树(GBDT)是一种流行的机器学习算法,并且有很多有效的实现,例如XGBoost和pGBRT.尽管在这些实现中已经采用了许多工程优化,但是当面对维度高,数据量大的问题时,其特征的效率和可扩展性仍然不尽人意.其中一个主要原因是对于每个特征,他们需要遍历所有的数据实例来估计所有可能的分割点的信息增益,这非常耗时.为了解决这个问题,我们提出了两种新颖的技术:基于梯度的单面采样(GOSS)和互补特征压缩(EFB).使用GOSS排除了很大比例的小梯度数

转:lightGBM的黑科技--plot函数

本来想研究一下lightGBM的plotting相关的接口,发现网上已经有人做了,而且还挺不错的(lightGBM的黑科技--plot函数),就直接给转过来了 # -*- coding: utf-8 -*- # @Time : 2018/6/11 # @Author : Reynold chen import lightgbm as lgb import numpy as np import matplotlib.pyplot as plt print('制造数据...') x_train =

lightgbm的sklearn接口和原生接口参数详细说明及调参指点

class lightgbm.LGBMClassifier(boosting_type='gbdt', num_leaves=31, max_depth=-1, learning_rate=0.1, n_estimators=10, max_bin=255, subsample_for_bin=200000, objective=None, min_split_gain=0.0, min_child_weight=0.001, min_child_samples=20, subsample=1.

LightGBM 调参方法(具体操作)

 sklearn实战-乳腺癌细胞数据挖掘(博主亲自录制视频) https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share https://www.imooc.com/article/43784?block_id=tuijian_wz 鄙人调参新手,最近用lightGBM有

Stacking:Catboost、Xgboost、LightGBM、Adaboost、RF etc

python风控评分卡建模和风控常识(博客主亲自录制视频教程) https://study.163.com/course/introduction.htm?courseId=1005214003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share http://www.360doc.com/content/18/1015/10/60075508_794857307.shtml http://w

LightGBM,面试会问到的都在这了(附代码)!

1. LightGBM是什么东东 不久前微软DMTK(分布式机器学习工具包)团队在GitHub上开源了性能超越其他boosting工具的LightGBM,在三天之内GitHub上被star了1000次,fork了200次.知乎上有近千人关注"如何看待微软开源的LightGBM?"问题,被评价为"速度惊人","非常有启发","支持分布式","代码清晰易懂","占用内存小"等. LightG

lightgbm用于排序

一. LTR(learning to rank)经常用于搜索排序中,开源工具中比较有名的是微软的ranklib,但是这个好像是单机版的,也有好长时间没有更新了.所以打算想利用lightgbm进行排序,但网上关于lightgbm用于排序的代码很少,关于回归和分类的倒是一堆.这里我将贴上python版的lightgbm用于排序的代码,里面将包括训练.获取叶结点.ndcg评估.预测以及特征重要度等处理代码,有需要的朋友可以参考一下或进行修改. 其实在使用时,本人也对比了ranlib中的lambdama

Mac下安装lightgbm

Mac下安装lightgbm 1.安装环境 系统 MacOS Mojave 版本10.14.2 Xcode 10.1 $ clang -v Apple LLVM version 10.0.0 (clang-1000.11.45.5) Target: x86_64-apple-darwin18.2.0 Thread model: posix 2.安装错误 直接使用命令: import lightgbm as lgb 使用时直接调用: import lightgbm as lgb import li