QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2865|回复: 0
打印 上一主题 下一主题

机器学习算法(15)之Xgboost算法

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

81

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2021-4-10 11:27 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    $ w$ u1 N) A! o; `
    机器学习算法(15)之Xgboost算法5 N% X, E$ r1 X# I& t
    前言:前一篇文章对boosting的两个方法做了阐述,这篇文章将会是对前两篇文章的深化,谈的是一个更加优化了的boostIng算法,自从2014年9月份在 Kaggle 的希格斯玻色子机器学习大赛中夺魁以来,XGBoost 与深度学习两个算法垄断了 Kaggle 大赛的大部分冠军。现在Kaggle 大赛的情况基本是这样的,凡是非结构化数据相关,比如语音、图像,基本都是深度学习获胜,凡是结构化数据上的竞赛,基本都是 XGBoost 获胜。
    1 r! n% @0 m6 q! T! i& l' L- m/ O9 N# U5 u
    1、回顾下GB、GBDT7 f- \4 n- k  f5 n8 N6 v8 B0 G) W
            GBDT和xgboost在竞赛和工业界使用都非常频繁,能有效的应用到分类、回归、排序问题,因此这里尝试一步一步梳理GB、GBDT、xgboost,它们之间有非常紧密的联系,GBDT是以决策树(CART)为基学习器的GB算法,xgboost扩展和改进了GDBT,xgboost算法更快,准确率也相对高一些。  
    ' d+ s7 E7 A/ d, I
    1 r% `' Y  u. k! P6 {  t. m# x8 A1.1、Gradient boosting(GB)5 b3 h' s. {5 r  b
            机器学习中的学习算法的目标是为了优化或者说最小化loss Function, Gradient boosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加,后面的模型基于前面学习模型的的效果生成的,关系如下:2 ?  D" y, ]+ T/ S" k, a6 q

    8 z' ?/ N' P" ?: h- j8 ]( O! W; r* k4 U
    7 K4 e7 j6 v# X  H7 Y7 c5 [
    GB算法的思想很简单,关键是怎么生成?
    ; H& H+ @# s: T) M* `! Y) d2 K1 h4 ?+ @; R- i: Z- |  n+ Q/ ]
          如果目标函数是回归问题的均方误差,很容易想到最理想的应该是能够完全拟合 ,这就是常说基于残差的学习。残差学习在回归问题中可以很好的使用,但是为了一般性(分类,排序问题),实际中往往是基于loss Function 在函数空间的的负梯度学习,对于回归问题残差和负梯度也是相同的。中的f,不要理解为传统意义上的函数,而是一个函数向量,向量中元素的个数与训练样本的个数相同,因此基于Loss Function函数空间的负梯度的学习也称为“伪残差”。; e: @% g& Q0 G5 n6 X; r" S
    0 T- d/ p6 h1 m4 ^" i; P, F4 z. N
    GB算法的步骤:% x+ H* B9 G* o- C: @

    * y7 Z0 O# w  S# I5 X1.初始化模型为常数值:
    : N- ?1 x6 E) n9 `7 @- ~& l: u; \  W9 ]/ f) W; x
    " s8 O6 `" M0 W1 V! A1 J7 X/ d8 J/ Y
    - H9 m' ?5 Y$ o- ^0 @
    2.迭代生成M个基学习器
    1 y9 N: u- [9 i$ r) N2 ?# k( t( Z/ d) Q
              1)计算伪残差
    0 v( z& ?1 f3 o' P4 M2 f" }. t9 Q' o" T1 G
    0 A5 t8 d/ o0 G5 S

    0 i2 h! l  F0 ]& _; Y, }9 ]4 y          2.基于生成基学习器! r1 q( Z$ `- x0 M/ N! r, b
    * C# z! o) G7 O: }; E' ~. k, u
              3.计算最优的
    $ x, g$ N4 N' _6 K) n$ f! t, d& i. p1 D6 ^0 ]
    , m9 v6 |( r; J0 R5 R3 H  S
    : D  h. Y. p$ Z7 j/ t  D
             4.更新模型; b; B" }; c. x( d  p  U
    ; Y- g  h: d% d* |9 J7 J

    ; p9 @& y7 F/ C! E! H2 O
    # [; ?& D8 f! J- c! |0 V( [1.2、Gradient boosting Decision Tree(GBDT)
    . _" o5 r( I9 b. a  U8 w       GBDT的原理篇在上一篇已经阐述过,这里稍微总结性下,GBDT是GB和DT的结合。要注意的是这里的决策树是分类回归树(是一种二叉树),GBDT中的决策树是个弱模型,有些GBDT的实现加入了随机抽样(subsample 0.5<=f <=0.8)提高模型的泛化能力。通过交叉验证的方法选择最优的参数。! i( A4 h. K+ r# [, t$ Z
      f6 \! L* _# {: W% q. ?" \+ d$ `
    因此GBDT实际的核心问题变成怎么基于使用CART回归树生成?
    2 D  M4 E0 n4 _+ H5 a! ^& c  k4 ]2 h( W# Q+ J
    2、Xgboost算法
    ! J2 p) W: c2 d       前面已经说过,xgboost可以说集成思想达到顶峰的一个模型,至少目前是这样,所以我们学习机器学习算法, 掌握这个是很有必要的。顺带提一下,Xgboost目前scikit-learn中没有实现,需要我们自行安装Xgboost,可以通过python调用,我自己也记录了一个纯小白都能安装好的方法。2 I6 f- q9 V: j; B* u0 i  G  Y2 y
    % `$ V7 P; ~2 Y# S0 k+ q. W
    全称:eXtreme Gradient Boosting(极值梯度提升算法)6 D8 r6 r* o  m. w
    作者:陈天奇(华盛顿大学博士) ( j* e, T( t% J2 ~/ E
    基础:GBDT 1 m" [1 d- K- H3 v) d
    所属:boosting迭代型、树类算法。
    0 a4 a! q% K1 s2 `适用范围:分类、回归等: @  T( Z# E* b' \' Q5 c
    优点:速度快、效果好、能处理大规模数据、支持多种语言、支持自定义损失函数等等。
    4 S7 A# ]; A5 w2.1、与GBDT的区别:; B( g3 K; ?0 x1 d1 y6 y8 j
    首先我们先在大体上对xgboost有个大致的印象,然后我们在对其原理做详细的阐述。; K, M( a3 b( k$ J: V

    $ d. X+ x. j% _9 b/ F      • XGBoost的基学习器除了可以是CART(这个时候就是GBDT)也可以是线性分类器,而GBDT只能是CART。! n! G! ~' H, u, l' r# b1 U2 c- y7 F
          • XGBoost在代价函数中加入了正则项,用于控制模型的复杂度(正则项的方式不同,如果你仔细点话,GBDT是一种类似于缩         减系数,而XGBoost类似于L2正则化项)。
    7 e: R+ j/ c  @# b* Q( Z9 F      • XGBoost借鉴了随机森林的做法,支持特征抽样,不仅防止过拟合,还能减少计算
    : @$ \" i! ^! g      • XGBoost工具支持并行化
    * w" m! s' q1 s5 j4 F+ V      • 综合来说Xgboost的运算速度和算法精度都会优于GBDT% [( y8 J, V' j
    0 H# f) n/ y; I3 a$ s, d
    2.2 Xgboost算法原理
    - K# Y& M3 U- ]       Xgboost是GB算法的高效实现,xgboost中的基学习器除了可以是CART也可以是线性分类器(gblinear)。下面所有的内容来自原始paper,包括公式。
    0 S: E* s! P) |* i" {2 I( t3 L, ~7 S: E0 F3 i6 \! ~
    1)树的结构
    ; i, J2 C7 Q7 w4 V8 P8 \+ I1 L, H
    ; B  X6 C. y: q8 G. Y" y6 @     我们从单一的树来考虑。对于其中每一棵回归树,其模型可以写成:                     
    1 b0 ^3 e% }) A  F2 p# v$ j9 g. f6 ]# i( X5 l$ ^# p0 X4 V
    & y) F; x- {* U' s" h( }

    ; |; v' F! C+ p# m3 F% o% Q0 m      其中为叶子节点的得分值,表示样本对应的叶子节点。为该树的叶子节点个数。
    3 R, \( C$ q+ G5 p6 w8 _! b3 x
      z8 Z1 _' e% R7 F( c9 ^( z      因此,在这里。我们将该树的复杂度写成:; _9 j& K5 l$ s5 S; W2 A6 R# r
    6 I% J& T3 `' X" z
          其中,γγ为L1L1正则的惩罚项,λλ为L2L2正则的惩罚项
    1 ~6 s4 X" ?* a4 t7 S, ~
    % l7 R' C, J7 Q      复杂度计算例子如下:
      I2 ]- H9 d& W2 F6 Q$ z) [, O+ ?; a" s( ?7 f$ b
      ^( F7 ]7 P. Y' \# {
    # t* h' _/ K) m  @+ ~& w9 k
    2) 损失函数, [+ o- W6 a5 I; }6 y
    9 i3 N0 u5 D0 `8 W* m) M5 d/ Q5 x
           前面已经说过,为了一般性,实际中往往是基于loss Function 在函数空间的的负梯度学习,对于回归问题残差和负梯度也是相同的。和传统的boosting tree模型一样,xgboost的提升模型也是采用的残差(或梯度负方向),不同的是分裂结点选取的时候不一定是最小平方损失。 ) @3 P0 r. `" h* T* a! Y7 [, P
    7 Y$ S6 _+ G' d' b; u( ^
    3 d$ e: M: J& g. m4 ?$ R
    * h* z* ^: @3 M8 t* |9 L
    对目标函数的改写:+ A; l5 l& _2 S  h
    ( U/ s2 G/ D9 a, }( c+ n1 n

    ( T% \' k# }% [6 i4 |# O* N3 g3 E6 b+ \  J* R! ?
           最终的目标函数只依赖于每个数据点的在误差函数上的一阶导数和二阶导数。这么写的原因很明显,由于之前的目标函数求最优解的过程中只对平方损失函数时候方便求,对于其他的损失函数变得很复杂,通过二阶泰勒展开式的变换,这样求解其他损失函数变得可行了。& S% Z4 A) _; ?! b' _) y

    + c9 T& E; }5 k) O. W% d, k7 h      我相信到这里肯定都没有问题,接下来的理解是整个损失函数的难点,我自己开始学的时候想了一些时间,接下来我尽量用白话来叙述。
    5 p" A% b5 ]8 h" `- R7 o
    + T0 [  {1 I% i1)对的理解:在上面我们已经说了,当一个样本进来的时候,不管是回归问题还是分类问题,你最终都会掉到叶子结点上,而每颗树的每个叶子节点都会对应有一个得分(想象一下回归问题,每个叶子节点对应的是落入该叶子结点的所有训练样本的均值),所以可以理解为一个样本在t轮最终的得分函数。; r. X* ]0 B9 k& k. O$ d

    9 C/ {2 G: ~2 u. B8 l& K9 o8 ]2)对的理解:其实这个的理解,我最初钻了牛角尖,其实只要当我们的损失函数一旦确定下来(理解的前提),这个求导就和我们高数中的求导一回事啦,只不过表达式看起来很唬人。. M& M, [- K: r8 b- ~" X+ w
    6 M2 ]  G0 R# n2 Y: e
    3)目标函数全部转换成在第t棵树叶子节点的形式。从求和符号我们可以看出,是在对每个样本求损失,我们在第一点就已经说了,第i个样本最终都会落到树的叶子结点中去的,只是不同的叶子节点,你会取不同的值罢了。那我们能不能讲对样本的损失转移到对叶子结点中再求损失呢(后话,这个就是这么做的), 可以看做是每个样本在第t棵树的叶子节点得分值相关函数的结果之和,所以我们也能从第t棵树的叶子节点上来表示。4 H- d% V1 c* |, _& b& O
    , s$ U. R9 I4 r' `
    " b% u, C" V5 O( z& X, L1 O
    , ^0 l4 K5 {3 F+ ^% _
          这里也在解释下,描述了一整颗树的模型,他当然能分解成每个叶子结点的集合啦,而刚好是每个叶子节点的得分函数,这两个于是就可以相互转化了。
    7 ^+ {- r1 C5 B& I1 w2 H' s! D# ~; b6 f: c" P1 K+ U% a; Y
    其中为第t棵树中总叶子节点的个数,表示样本落在第个叶子节点上,为第个叶子节点的得分值。
    / @: r. q  D5 W6 v4 p* Z6 c1 n
    1 f2 ]. w; a) _! f1 N. D0 O- k在这里,令
    8 f0 K5 t, _. K2 h3 L. z
    9 I: f- x  N. {) w* _5 J. g: G
    , G" X0 k' U" b3 [, T* f* M& @$ G& W+ z- _
    对求偏导,并使其导函数等于0,则有:
    ; g+ x% w: p' q+ S% e6 w& |) b: _! u3 ]+ R( A  V
    " _4 A0 z& [9 o) B

    0 c+ g( [" J9 h  C. A
    % D9 d* ]) d3 T
    ; ~1 O: T/ j1 o' E$ {到此,损失函数的推导完成。
    2 ?- d9 T2 O5 `- @6 |8 ~
    1 s% V. L# T; v8 [, C7 g3)树结构的打分函数: u( ^. r: i; k1 x
    9 ^+ Q1 j' K8 g! J0 e; F, r
          Obj代表了当指定一个树的结构的时候,在目标上面最多减少多少。结构分数(structure score)
    : z; [' |( V3 f
    * V! e! x$ M6 M4 J6 C
    ( e3 A/ E4 u$ I: P$ r1 s$ B7 ^6 C5 G
           xgboost算法的步骤和GB基本相同,都是首先初始化为一个常数,gb是根据一阶导数ri,xgboost是根据一阶导数gi和二阶导数hi,迭代生成基学习器,相加更新学习器。
    8 L3 D5 }* q5 h0 Q9 \8 e# R( f0 e$ j% t: l  C: Q! E1 L
    对于每一次尝试去对已有的叶子加入一个分割) T( e) i# V: }# g# I

    4 D- Q( I+ `( ~4 X" R
      N3 V( |7 o1 p& F& R: P7 x' F2 I8 b/ k) p( ?
           这样就可以在建树的过程中动态的选择是否要添加一个结点。  联想决策树中信息增益,这里的原理类似。这一步实质上是为了寻找分裂结点的候选集。
    * Y  ?* L0 t, t+ o$ D% }/ ]" ^% K! p- D
           如何高效地枚举所有的分割呢?我假设我们要枚举所有x < a 这样的条件,对于某个特定的分割a我们要计算a左边和右边的导数和。
    & }& N# }( Z3 M, K! \
    2 M, @, u: ~/ a: D% i
    + m7 ]$ H+ D4 D# Y
    * j2 a2 Y" \: T& `. @1 P我们可以发现对于所有的a,我们只要做一遍从左到右的扫描就可以枚举出所有分割的梯度和和。然后用上面的公式计算每个分割方案的分数就可以了。! c6 z  e0 B8 p  P" Y

    ! T2 y4 {3 x) t9 W. fxgboost算法伪代码如下:( ]" m3 e; S5 d: I

    * ^/ v, q" f: Q) k" X/ d! c. d: J( A( l' |9 z' ]
    : R7 T# P" Q( t8 ^% w# f  f
    3、Xgboost算法参数9 e4 f- h! [# C% h7 T+ K7 t
    XGBoost的作者把所有的参数分成了三类:- p+ o  x, I- h, @

    $ R& l( u, L& I* d- Q9 W通用参数:宏观函数控制。% j6 C0 d  I0 X% \( w+ a
    Booster参数:控制每一步的booster(tree/regression)。
    % R# F4 l0 g* z* G. D学习目标参数:控制训练目标的表现。
    1 m  s6 y6 M- c& @" ~3.1通用参数& Z: N' D  m+ ~
    这些参数用来控制XGBoost的宏观功能。( V& Z% v+ o0 @% O
    0 C. \5 r5 b& s8 e2 v
    1、booster[默认gbtree]0 o( Z. ?# D+ a
    ' T1 Z1 E/ t) l, y0 P8 {$ R
    选择每次迭代的模型,有两种选择: ( h3 i/ m& K4 s  I# R8 c" }' |
    gbtree:基于树的模型 - Q5 b# `4 e1 Z4 T4 y1 K! u
    gbliner:线性模型1 e) f% e/ w! B( T$ {5 W
    2、silent[默认0]
    ! L; A& Z8 W0 V: C4 o, e0 Y: k+ |0 {
    当这个参数值为1时,静默模式开启,不会输出任何信息。8 V$ ?$ ~; ?- H6 O, F) o$ f
    一般这个参数就保持默认的0,因为这样能帮我们更好地理解模型。2 t) ^# s/ a* k+ |
    3、nthread[默认值为最大可能的线程数]# p, n, E) p8 m& A( p

    + F4 r5 _& z+ W' v( z这个参数用来进行多线程控制,应当输入系统的核数。
    $ ], \+ z5 k9 k. L( W如果你希望使用CPU全部的核,那就不要输入这个参数,算法会自动检测它。- G- H  {7 ]9 W8 ^' {1 {% R1 z
    还有两个参数,XGBoost会自动设置,目前你不用管它。接下来咱们一起看booster参数。4 h; P$ \. H& s! ^# `' T4 i- `
    5 K8 y8 ], L+ i, v8 Y
    3.2 booster参数$ B5 J& x6 W' b4 m
    尽管有两种booster可供选择,我这里只介绍tree booster,因为它的表现远远胜过linear booster,所以linear booster很少用到。
    * |: G6 W( X) J; c1 f9 K& J. }
      Z8 j. g6 S3 v* z$ p4 c6 G1、eta[默认0.3]( ~' O, c" [" _7 y: m$ f

    ) o& a0 Z1 O9 M. B: Y5 R和GBM中的 learning rate 参数类似。
    : r: u# }  U9 k* J2 R* d2 w通过减少每一步的权重,可以提高模型的鲁棒性。0 g( E- J( H; F, m7 k$ t
    典型值为0.01-0.2。. T4 Y' U6 l: t4 v9 E1 B) p
    2、min_child_weight[默认1]1 Q$ g: U/ B/ _* U( x6 X4 @: n5 ^- J
    % m1 E% S0 W8 _: s" @
    决定最小叶子节点样本权重和。6 I% E  D% G* g" l; T
    和GBM的 min_child_leaf 参数类似,但不完全一样。XGBoost的这个参数是最小样本权重的和,而GBM参数是最小样本总数。
    * y! E/ ~+ `5 a7 x这个参数用于避免过拟合。当它的值较大时,可以避免模型学习到局部的特殊样本。
    ( \! V& {4 T2 r但是如果这个值过高,会导致欠拟合。这个参数需要使用CV来调整。" q) |% f, V% I4 L1 O5 H6 V
    3、max_depth[默认6]3 q$ \. Q3 n1 M0 _* [
    $ l# |1 `8 T0 i' y& e9 k# }% G2 I7 m
    和GBM中的参数相同,这个值为树的最大深度。9 M5 |: s  o6 L) ~  K
    这个值也是用来避免过拟合的。max_depth越大,模型会学到更具体更局部的样本。+ q3 y$ e& Z/ d% a
    需要使用CV函数来进行调优。
    5 V4 Z. l3 w" K! S( R, \典型值:3-10% h4 S/ ^: W# N  g
    4、max_leaf_nodes& c6 a. ]. y7 Y1 {0 S' C+ y

    ! c( C! t" T2 D6 R, ?4 C- j树上最大的节点或叶子的数量。
    " o- C8 n5 U: q/ u可以替代max_depth的作用。因为如果生成的是二叉树,一个深度为n的树最多生成n2n2个叶子。! \% A0 ~2 R2 G* O9 c
    如果定义了这个参数,GBM会忽略max_depth参数。
    - I1 t; v, l/ C. d  D) k3 l5、gamma[默认0]  f: A6 e2 k  w6 _

    1 e% d0 s6 y. m在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点。Gamma指定了节点分裂所需的最小损失函数下降值。1 }, U* X) {0 m! i
    这个参数的值越大,算法越保守。这个参数的值和损失函数息息相关,所以是需要调整的。- p6 [0 e( }0 Q+ i6 ~6 l  K' F
    6、max_delta_step[默认0]
    0 d9 |7 r8 y% C8 T# M+ X0 z1 p0 g" T& t' a7 H0 b
    这参数限制每棵树权重改变的最大步长。如果这个参数的值为0,那就意味着没有约束。如果它被赋予了某个正值,那么它会让这个算法更加保守。
    $ v$ f" q# D" F, ?( `' o1 w2 ]" F通常,这个参数不需要设置。但是当各类别的样本十分不平衡时,它对逻辑回归是很有帮助的。
    ) I3 g8 P% I: U" M1 a! \  ~这个参数一般用不到,但是你可以挖掘出来它更多的用处。
    3 F5 T! q6 B( _7、subsample[默认1]
    + ^( o! Q1 m: ]& T3 @( u1 s4 K" M4 j+ U- J
    和GBM中的subsample参数一模一样。这个参数控制对于每棵树,随机采样的比例。
    . J: x% k; I* W. |# _减小这个参数的值,算法会更加保守,避免过拟合。但是,如果这个值设置得过小,它可能会导致欠拟合。
    ! Z# N9 y' C  Y9 G  ], e. J- S7 I, C# t典型值:0.5-1+ q) M2 N4 m, ~! ^& V. N- _
    8、colsample_bytree[默认1]6 J/ M# y# V/ e, J! d5 x
    8 F; L* a& M: N  D0 s
    和GBM里面的max_features参数类似。用来控制每棵随机采样的列数的占比(每一列是一个特征)。
    $ I  E: r% q. C. w' g; Z( I典型值:0.5-1
    6 C7 V( X/ W5 x+ n1 G8 F9、colsample_bylevel[默认1]
    9 x0 H- N* |/ m# {. v; R: P; V' \, M* F' k
    用来控制树的每一级的每一次分裂,对列数的采样的占比。
    + ?- I4 M1 u/ Q% `, P我个人一般不太用这个参数,因为subsample参数和colsample_bytree参数可以起到相同的作用。但是如果感兴趣,可以挖掘这个参数更多的用处。
    6 v" R; O. L# _" d  R, o/ w, k  J10、lambda[默认1]
      D8 y' Y7 O/ h3 y3 V$ L
    ) \  R  _3 `5 D& j/ i. o) R2 r权重的L2正则化项。(和Ridge regression类似)。
    0 X0 W, h! v8 e  @  h* A7 R2 s% ~这个参数是用来控制XGBoost的正则化部分的。虽然大部分数据科学家很少用到这个参数,但是这个参数在减少过拟合上还是可以挖掘出更多用处的。
    ; q- D3 P- W8 }11、alpha[默认1]
    , P* w$ l2 o* y- v( y3 J
    , j& ?4 Z7 U& ^) F5 z% l% T* S权重的L1正则化项。(和Lasso regression类似)。
    - e) t  N# R, s5 f可以应用在很高维度的情况下,使得算法的速度更快。2 C, F% B" f0 }, o) E
    12、scale_pos_weight[默认1]. ?( R! H7 c$ m$ J9 K
    7 R$ G. X4 E/ u( k
    在各类别样本十分不平衡时,把这个参数设定为一个正值,可以使算法更快收敛。2 r5 t( U, R. a9 z- X3 d' ~
    3.3学习目标参数
    * u9 `) V& n% ?1 S7 g这个参数用来控制理想的优化目标和每一步结果的度量方法。; }: _$ k( q/ S* k0 d! X- J
    1 H& r$ D2 |' u; H/ O
    1、objective[默认reg:linear]* ~6 J  R6 [! r  c( S1 y

    ' E- a& V( q$ |  F这个参数定义需要被最小化的损失函数。最常用的值有:
    ( S4 E5 o% t# ~binary:logistic 二分类的逻辑回归,返回预测的概率(不是类别)。
    $ b7 `- w0 A. Smulti:softmax 使用softmax的多分类器,返回预测的类别(不是概率)。 在这种情况下,你还需要多设一个参数:num_class(类别数目)。
    . J# r# W4 b' R6 C8 E; Y3 S3 tmulti:softprob 和multi:softmax参数一样,但是返回的是每个数据属于各个类别的概率。
    * L1 i5 @1 W7 s) ~: }# c5 \7 h2、eval_metric[默认值取决于objective参数的取值]3 H- o( {: K7 \, P/ q0 x1 Y

    ) t1 [6 Y$ J8 ~6 v4 \对于有效数据的度量方法。: Z) _2 w9 M9 K  S  X
    对于回归问题,默认值是rmse,对于分类问题,默认值是error。
    ( @$ u' l2 ?3 q4 X( z典型值有:
    ; A' H- d/ e  l5 L$ \  Frmse 均方根误差(∑Ni=1ϵ2N−−−−−√∑i=1Nϵ2N)
    + E# a  |2 B$ y% ^8 q6 R- {mae 平均绝对误差(∑Ni=1|ϵ|N∑i=1N|ϵ|N)
    ; ~5 a" k& h$ Tlogloss 负对数似然函数值% }  c" T, P2 m; t' }/ p
    error 二分类错误率(阈值为0.5)' W# K1 x2 E3 ]
    merror 多分类错误率+ T$ f$ ~  @2 S+ E) W
    mlogloss 多分类logloss损失函数
    9 V5 W! F3 }: Qauc 曲线下面积
    / r$ |& ]% C) c) y1 V0 npython的Xgbosoost调参实例:推荐看  https://blog.csdn.net/han_xiaoyang/article/details/52665396/ a9 G/ V! V; X4 D% u; s$ U
    . R  ^) x' y; s+ {
    除此以外,xgboost除了原生版的调用以外,sklearn还为我们封装了一个sklearn版本调用的方法,from xgboost import XGBClassifier,调参同样可以借用网格搜索的方法,这是一篇xgboost的网格搜索的案例
    / N, n) {1 }, [/ R0 `* [- f, K, B0 V7 L
    4、小结3 {* L$ U/ M4 J  _3 o
    xgboost与gdbt除了上述的不同,xgboost在实现时还做了许多优化:(以下转载于 机器学习系列(12)_XGBoost参数调优完全指南(附Python代码))
      g/ B+ i0 C* r+ [4 E+ H5 {$ S9 ]) `
    1)并行处理
    . F  c9 f  S7 u: C/ n/ `
    0 G9 I0 R! }6 D8 h7 L5 \XGBoost可以实现并行处理,相比GBM有了速度的飞跃。
    1 F8 `; ^% U) g' {3 s不过,众所周知,Boosting算法是顺序处理的,它怎么可能并行呢?每一课树的构造都依赖于前一棵树,那具体是什么让我们能用多核处理器去构造一个树呢?我希望你理解了这句话的意思。如果你希望了解更多,点击这个链接。+ r6 e$ V/ h" Y4 v( n8 V
    XGBoost 也支持Hadoop实现。0 D' ^" |+ Z6 H9 U1 p7 K7 R3 V& ]
    2)高度的灵活性- Q$ O& G" t" ]4 i( V8 m- P5 E

    6 F1 Y* B; S' WXGBoost 允许用户定义自定义优化目标和评价标准
    ' Y4 J9 j; T, {6 L0 [# g1 r3)缺失值处理0 k* a5 y1 T6 l' A  k
    6 h9 B9 o8 G, [, r5 l
    XGBoost内置处理缺失值的规则。
    ' u9 C# K- h9 t% Y# _4 k' a用户需要提供一个和其它样本不同的值,然后把它作为一个参数传进去,以此来作为缺失值的取值。XGBoost在不同节点遇到缺失值时采用不同的处理方法,并且会学习未来遇到缺失值时的处理方法。
    5 c- T& |& W$ F% f) n! j4)剪枝
    . V. j8 h+ I  d7 a9 A+ l& A) f4 D0 }
    5)内置交叉验证5 H* M5 J9 c: o& M8 g

    + F1 a! K. O( NXGBoost允许在每一轮boosting迭代中使用交叉验证。因此,可以方便地获得最优boosting迭代次数。
    / f: K3 f# W5 s而GBM使用网格搜索,只能检测有限个值。$ D$ X: H' U1 x1 H* r2 |2 @$ L: }

    9 h2 Y! b% \6 l' m2 D' \
    - J, c2 F2 a8 R. k7 }参考资料:1 @* E/ Z& r/ g5 U

    1 u: I! c% y- v9 d- y9 Q/ J: ]3 ihttps://www.cnblogs.com/wxquare/p/5541414.html
    0 B" B$ P* s4 z; a; m1 q5 e3 s' t  u3 n1 C
    https://blog.csdn.net/a1b2c3d4123456/article/details/52849091
    - }2 j  ~% }/ z9 y* H
    4 p% w; q" U: ]+ O, P! n$ m& ]6 E' `陈天奇的boosting tree的ppt:http://homes.cs.washington.edu/~tqchen/pdf/BoostedTree.pdf
    ! _' g0 Z0 r- F2 ^; X3 n+ k( V# _4 u
    sklearn版本调用的方法:XGBoost Python API Reference (official guide)6 N7 j& ?6 \, c; K
    - ~; S& d) ?& u9 O: y; ^% p
    XGBoost 参数:http://xgboost.apachecn.org/cn/latest/parameter.html#
    / O- j9 a6 i) ^# F, P" e
    $ ?  I3 Q% T' t1 ]4 w* |0 X; K$ sXGBoost-Python完全调参指南-参数解释篇https://blog.csdn.net/wzmsltw/article/details/50994481- P: M. z+ Q' v) v1 o0 r

    , N4 D, Z; x+ u1 E' Y0 ~XGBoost参数调优完全指南(附Python代码)https://blog.csdn.net/han_xiaoyang/article/details/52665396: L. z6 _$ p0 J2 ]. s

    1 Y, S# p! ^7 Q) Npython 下实现xgboost 调参演示https://blog.csdn.net/weixin_41370083/article/details/79276887
    7 i4 [* Q( O  o. O/ R( W! N: r4 f0 J3 E+ ]" o
    XGBoost调参技巧(二)Titanic实战Top9%https://blog.csdn.net/c2a2o2/article/details/776460252 y- ^0 K6 S' g6 S

    5 F& d, F. w; n! L! b" |0 c* A' o' |' x" z0 u6 X) u( ^% k9 [
    ————————————————+ w4 m1 ~. M7 g) Q
    版权声明:本文为CSDN博主「且行且安~」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。% l+ ^  Y6 W: r$ T% O; V' g8 a
    原文链接:https://blog.csdn.net/qq_20412595/article/details/82621744! q+ {: f2 l' [7 W3 _& S
    6 @& P9 C! i2 u4 Z

    - U: {, G5 R; \9 W9 E
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-5-15 19:21 , Processed in 0.441020 second(s), 50 queries .

    回顶部