6 X s* h2 x6 i7 ~5 E( [- E6 U. NInternally, XGBoost will automatically learn what is the best direction to go when a value is missing. Equivalently, this can be viewed as automatically "learn" what is the best imputation value for missing values based on reduction on training loss. " @& v) E H5 O7 h# z" V) a 8 |# E( R" l6 _; T6 ]5 A(3)异常值(outlier): 由于各种原因,往往有一些样本的误差特别大,把这些样本加入模型会引入很大的噪声,就像很多打分的比赛会去掉最高分和最低分之后再取平均值。这个比赛中去掉这样大误差的outlier能带来很大的提升。! [( f) {3 y" F) P1 {. p
: r8 w" F+ V( m+ \& w- g
(4)相关性分析:特征之间并不是完全独立的,这时候可以计算correlation coefficient来确定特征之间的两两关系。还可以计算每个特征和目标值(这里是logerror)之间的相关性,绝对值越大说明这个特征的作用越大。' e/ ]2 q' L5 K6 ~
( Q" L, Z; }+ O( A# y& I(5)模型权重分析:现在大多数模型在训练完成后都会给出获取特征权重的接口,这时的权重是直接反映了一个特征在这个模型中的作用。这是判断一个特征是否有用的重要方法。例如,原始特征有卧室数量和卫生间数量,我们自己创造了一个特征房间总数(卧室数量+卫生间数量)。这时可以用这种方法判断这个新特征是否有效。: u& g9 L7 w ?
特征工程在实际应用中非常有挑战性,还有许多方法,上述只是一些皮毛。Zillow比赛里我尝试了许多新特征,但最终都没有采用。$ j5 N: O6 C' C, R" H. s
而对于语音识别比赛来说,特征工程就非常有限了。在语音识别领域广泛使用的特征是log-mel频谱和mfcc特征,没有必要自己再做特征工程。而现在火热的端到端(end-to-end)语音识别优点就是省去特征提取,直接使用原始波形作为神经网络的输入。 ! ]! f% Y9 a/ G0 D $ A# W: S) G5 h, p. L2.模型选择 4 ` {# M6 f8 y8 u( p2 k( ]) c* W0 M, F5 N) g9 q2 ]$ d2 s0 l& X
Kaggle比赛很重要的一点是,不可能只使用一个单一模型。在许多比赛的第一名公布的方案里,往往有十几个甚至几十个不同的模型。模型融合(ensemble)实在是太重要了,模型融合的方法下文再讲,但是在选择模型的时候就要考虑到如何让这些模型在融合后效果更好。6 n- V) v# G2 l9 m
不管用什么方法融合,想要模型融合之后效果好,模型之间要有多样性。换句话说,模型之间越不相似,模型融合的效果越好。 ( t# F r% C; S, D/ l 对于Zillow这样给定特征,数据不是图像音频的比赛,主要选用树模型。这类Kaggle比赛,首选肯定是XGBoost和LightGBM。这两个模型都是由梯度提升树(GBDT)演化而来的。简而言之,就是通过梯度提升(Gradient Boost)算法训练许多决策树及其对应的权重,然后投票得到最终的结果。详细的数学证明可以看林轩田老师的台大机器学习技法课程+ z% X& N& d# ^/ e9 L5 z
xgboost模型在生成决策树时是level-wise的,即每一层上的所有节点都会一起分裂,通过max_depth来控制树的高度从而控制模型的拟合程度;lightgbm模型则是leaf-wise的,每一次分裂会从所有叶子节点中找增益最大的节点来分裂,所以主要通过num-leaves来控制模型的拟合程度。# W9 y' H9 U+ i! _; M1 c
只用这两个模型显然不够,可以调整不同的参数来获得许多个侧重点不同的xgboost(lgb)模型:不同的深度(叶子数)、不同的损失函数等等。另外,在这个比赛里还用到了CatBoost、sklearn里的一些模型:随机森林、ExtraTree等。 - A# ?* g+ m0 } L 对于语音识别这类用深度学习的比赛而言,模型选择主要在于神经网络的结构和不同的输入。首先可以尝试不同种类的网络,比如CNN、LSTM。这里很难说有什么通用的技巧,在这个比赛中,CNN的效果较好,我用的所有6个模型都是以CNN为基础的。主要用到的结构是VGGNet和SE-ResNet。 ! B' G0 ~% |- G4 \# k! S/ O/ ? 对于VGGNet,实际上并没有完全按照论文上的模型,只是参考了思路,整个网络都使用了同样大小的卷积核尺寸(33)和最大池化尺寸(22)。SE(Sequeeze-and-Excitation)Block核心思想是学习特征权重,主要是通过global average pool以及全连接层来学习feature map的权重,然后作为scale乘到原始feature map上。然后将SE Block和ResNet结合。SE-ResNet在深度学习中,很多时候难以说清为什么这个网络结构效果好,只能根据结果来证明。这次的语音识别比赛中,一个比较有用的trick是:为了增加模型的多样性,在每个模型卷积操作完成后分别对feature map用全局最大池化和全局平均池化,相当于抓住了不同的特征,把一个模型变成了两个。另外,上文提到的三种特征:原始波形、log-mel频谱、mfcc特征分别作为输入,这样就形成了六个模型。 ; W# _, ^$ ]! `5 H1 s $ N% G/ }9 x6 i: h3 ?) g& W0 K3.调参8 A$ U k# ?6 h: m: q+ c# ~7 ?
; ^+ ~5 X$ G4 N8 X
调参这事很复杂,有很多经验、方法,实际的比赛中往往还是需要一些玄学。调参最常用的方法就是GridSearch和RandomSearch。GridSearch是给定每个待调参数的几个选择,然后排列组合出所有可能性(就像网格一样),做Cross Validation,然后挑选出最好的那组参数组合。RandomSerach很类似,只是不直接给定参数的有限个取值可能,而是给出一个参数分布,从这个分布中随机采样一定个数的取值。0 j, F" M. @4 E9 a e
0 H+ }9 E5 w' h) G, K( l
调参的方法理解了,那具体调什么参数呢?Zillow Prize比赛里,主要用的模型是XGBoost和LightGBM。下面列出一些主要用到的参数,更多的还是直接看文档。" f- {6 k6 ~7 H6 t- s" i; t