在线时间 1630 小时 最后登录 2024-1-29 注册时间 2017-5-16 听众数 82 收听数 1 能力 120 分 体力 563309 点 威望 12 点 阅读权限 255 积分 174216 相册 1 日志 0 记录 0 帖子 5313 主题 5273 精华 3 分享 0 好友 163
TA的每日心情 开心 2021-8-11 17:59
签到天数: 17 天
[LV.4]偶尔看看III
网络挑战赛参赛者
网络挑战赛参赛者
自我介绍 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
群组 : 2018美赛大象算法课程
群组 : 2018美赛护航培训课程
群组 : 2019年 数学中国站长建
群组 : 2019年数据分析师课程
群组 : 2018年大象老师国赛优
机器学习-多元分类/回归决策树模型(tree包) + C, o' g* v2 e7 j l' p% Y( N
# d L [$ K) G 决策树(Decision Tree):Tree-Based方法用于多元数据的分类和回归。决策树点是再现了人类做决策的过程,树可以图形化显示,很容易解释。但是树的分类和回归准确度比不上其他分类和绘图模型。决策树是随机森林、boosting等组合方法的基本组件,组合大量的树通常会显著提高模型的预测准确度,但会损失一些解释性。定性与定量变量均可用于Tree-Based方法。tree\rpart\mvpart均可进行多元树分析及绘图。此文介绍如何使用tree包进行多元分类/回归决策树分析。
9 h& l" u* T3 d5 i+ b
. L2 @: N: P/ @( B 一、 准备数据9 T; {# i. ^& G5 D0 V3 U
$ L, c$ B" P: W! m/ T% y4 m0 O; w 虚构微生物组和环境因子数据,包含75个样本。- ^6 k- P* O) B2 t
* n- q" Y, U6 M" p1 C1 V # 1.1 导入数据
# B+ s! o/ @; m0 q! W2 {, ?: Y ## 微生物组数据6 @& b, P' ~- L8 I3 \$ a1 I
spe = read.csv("spe.csv",row.names = 1,header = TRUE,check.names = TRUE,stringsAsFactors = TRUE) 4 l: [. L( S. A0 e+ ?& Q% U
dim(spe)/ }( ?( J8 }- h) h
head(spe)! v! F$ o5 w1 h
5 R% ^) `# ` c" J+ ~
## 环境因子数据9 }* h5 O8 r- Z) Q; k7 g
env = read.csv("env.csv",row.names = 1,header = TRUE,check.names = TRUE,stringsAsFactors = TRUE)
2 ]" ?5 g5 I; ~+ t! P1 z) I dim(env)
4 D& @ D2 ]% F6 v1 Z/ k9 C head(env)
- ?3 U9 _, c/ y9 D6 M& i / F. Z3 k+ ~ s! D# A
. z" }8 d2 o, s! A8 \% Q
图1|原始otu表,spe.csv。前两列为分类信息。
- B+ A5 G) P+ e* Q J0 I' a
. E* |$ O- j5 F
- x5 \5 i+ t) E2 d( Q( P( c 9 Y' f/ S3 {- i' y
图2|环境因子数据,env.csv。 p$ B9 @6 o& o
% M! s% q1 s- h: n# U f 二、决策树回归模型
, q8 Y* G% B) B. \" W 当因变量为定量变量时,决策树进行回归分析。分析时先基于自变量划分预测空间Rj,此时残差平方和(residual sum of squares,RSS)值最小,然后对于落入某一预测空间的样本,做相同的预测。
( Z. w3 j1 o2 Q7 V. x 8 m+ w5 k" ^& O- \
1 x2 C4 u7 @, R* f' B- n5 ]+ k) x 0 o$ ~0 {/ P1 e \2 v
但是考虑到所有自变量的预测空间构建基本很难实现,因此常使用递归二进制拆分(recursive binary splitting)。每一步的拆分都使RSS减少量最大。
6 P7 s! f v2 O6 l: D5 g U. N
x k. b- l) E8 o( h! x' S/ G 如拆分点(cutpoint)为s,则拆分空间R1和R2为:6 g; Q5 E3 S7 F l% C. k! T+ D
6 H+ e5 W$ N8 d0 ?) l A; k
2 w3 y# H7 q5 N+ T - _4 D5 d- m. |" d# e& a
j和s的选择基于使RSS最小化:2 i- x5 c" t: _9 A% |5 Z0 M
' A0 f4 Z* a& k' d( @" T
o5 T3 d N! A$ ?. ~# g7 s
6 E* c3 q6 [0 U, U$ c( y- `
后面重复此过程,寻找最佳预测空间和拆分点,从而使每个结果区域的RSS值最小,直到达到终止拆分标准,比如每个终端节点包含的样本数都不高于设定的阈值。
2 T9 d" y- P/ M) x4 x! V5 U $ k! Q/ u g& m& c
2.1 构建回归决策树
" [! K( ]% ^& N, m& ^7 a3 z u3 G/ X 使用微生物数据与环境因子数据进行决策树回归分析。为了更好的评估分类树的分类性能,不能只计算训练误差,需要估计测试误差。将数据分为训练集和测试集数据,训练集数据用于构建模型,测试集数据用于模型评估。
' {5 n, u: K1 I; l5 [ ; e# H0 T0 L! B4 r
# 2.1.1 将数据集分为train和test集,用train结果预测test的因变量值。
! I% e3 ~9 q% ^0 q4 W& m( f0 t/ l library(splitstackshape)3 _3 e3 b' T' F) V' D; v; e
spe = data.frame(ID = rownames(spe),spe)# stratified提取后,样本名会消失,先提取样本名,重新构建数据框。' N6 i. \3 l" W0 E! C8 o
( w+ t: y. s$ S# `4 O! \
## train data sets,每个分类提取相同数目的样本用作训练集( \- F" R2 o3 {. S5 `
set.seed(12345)
- R' [" C0 h1 J) G: }7 p/ z$ `. m: ? train.spe = stratified(spe, group=c("grazing"),size=10,replace=FALSE)% B* U5 {2 w' ?
table(train.spe$grazing) # 每个分类提取的样本数一致。
: u% P% g8 \- L) L& P* @ + {, m6 \6 V/ `8 r5 L, x
train.env = env[rownames(env) %in% train.spe$ID,]8 C3 B0 a! S) _2 _* b D
table(train.env$grazing) # 每个分类提取的样本数一致。
! j! k3 f0 w j7 r, I7 Z6 x, p( W
" c S; E1 L3 h+ H0 g' b ## test data sets
4 L! ^/ f6 K9 R6 ^" Z a J test.spe = spe[!spe$ID %in% train.spe$ID,]5 J+ e- ~0 ?+ V! K. }
table(test.spe$grazing)
& l3 r2 D) V7 N4 [5 r ' C2 Y& |0 \4 \: C2 }
test.env = env[!rownames(env) %in% rownames(train.env),]
2 Z1 C4 t1 f6 w% X0 ?" W+ s+ c+ x table(test.env$grazing)& f9 p4 L# z. ?2 T
h, D/ B7 Q* M2 ]- i( U #install.packages("tree")! D& _4 T% \# @' P! T/ M! g, Z
library(tree)
% H2 Y) Z/ z; y0 m# x+ `/ S# u" ?6 K
; e! Q/ y4 R, y # 2.1.2 构建回归决策树
7 @% ~7 Q+ [6 o/ g reg.tre = tree::tree(train.env$env1 ~.,data=train.spe[,-c(1:3)])
6 x4 `; }2 i- _+ Y! t reg.tre' c1 j# x! q; L
: X6 ^8 t, g9 Y # 2.1.3 输出结果简介; T7 n$ d" I9 ?5 j- y5 u5 l
## 输出表格的行为节点名(整数值表示),包含9列数据。
& E. l) A# q& o, S) E reg.tre$frame ( I; S8 N+ E- W4 @1 P, m
## 列包括var:用于拆分节点的变量及终端节点(<leaf>);/ L, e9 O1 u B1 z! H; v7 f) u" y' }
reg.tre$frame$var) z+ _& K1 Z, n* U
## n:每个节点的样本数量;: }4 O8 K2 H" d& e' _
reg.tre$frame$n
9 V5 i. N1 G* w9 T) g! T, B0 v6 f ## dev:每个节点的偏差2 i8 B& k" u7 y0 p9 H J
reg.tre$frame$dev
" c; `" ~7 h4 b% c ## yval:拟合结果,回归树为节点包含样本的因变量均值,分类树为该节点样本最多属于的分类水平;+ c) V } S# S: k. e. H# b
#mean(train.env[reg.tre$where == 4,3]) # 第四个节点包含样本的因变量均值。( A+ s9 K9 t" t! z @% e! }& Z
reg.tre$frame$yval
% ^( |- O/ [" m, G* @ 7 j4 q8 P! l8 D1 B8 t6 j
## split: 节点拆分,2列分别是属于左侧或右侧的标签;
6 D8 Y9 W0 d7 v l! n reg.tre$frame$splits, f% F! D0 o$ k% L3 R
## yprob:回归树,此为NULL;分类树则为因变量各水平的拟合比率,此数据有5个处理,所以有5列。
) I* ~6 S4 J( E reg.tre$frame$yprob
0 E5 V7 J9 \2 \( c& i
3 O @0 T# p/ D% {, z* D ## output,需要输出行名,则设置row.names=TRUE。
* k8 |- Q. `& V5 R' ~ write.table(reg.tre$frame,"reg_tre_res.txt",sep="\t",quote = FALSE,row.names = FALSE)
N# H$ f; r6 N3 E+ ~: Q$ y 7 }# q" k1 q* r) S4 E
## 每个样本所属节点
d$ S0 i/ a( c- r" T& }9 X% g reg.tre$where
5 q& R; Z1 T4 x O# D3 } ## formul形式
* Q& G/ O; z6 I+ E reg.tre$terms 3 Y- h. c5 h, j* G
## 自变量数据,x=FALSE则不会返回此数据
4 ~% K7 \# a2 C6 }% W reg.tre$x
& W0 L; Z- M( X. ^! w/ w ## 因变量,y=FALSE则不会返回此数据
+ k1 h" y+ d; h$ Z reg.tre$y {1 l2 H6 T/ g7 s% U- [
## 样本权重,未设置则均为1,权重值可以为分数形式。* ?" H- \2 m1 [0 X' j
reg.tre$weights, G- I' ?# w' P( [1 k: O
: j7 y+ b' u6 D! v& e" U ## 结果描述统计
: d: L: I+ A4 D0 T# u5 O reg.tre.res = summary(reg.tre)
: n# t" D0 u$ f) Y& N$ X reg.tre.res/ K, Y( @4 B5 m2 x7 I
reg.tre.res$used # 用于构建回归决策树的自变量
, p. _- R2 p! D9 J* S8 P( O reg.tre.res$dev # 偏差,决策树的残差平方和。
2 w8 n8 l- {/ E0 y. r) v reg.tre.res$df # 训练样本数减去终端节点数
0 z$ t4 k$ a. ^. N0 z reg.tre.res$residuals# 每个训练样本因变量的残差
0 F0 a- Y4 r; S! o8 u% h l
1 a6 y! ^! N; f ## 简单绘图% c: A! \* K" k: Q# \
plot(reg.tre)* w' d4 r+ {4 A* T- i! m
text(reg.tre,pretty = 0)' A5 ?. T: X/ @5 S. ~0 ^
; \$ r F2 q' _7 p7 h- O8 J
# 2.1.4 预测测试集数据, _6 L) n8 o- y" D
reg.pred = predict(reg.tre,newdata = test.spe[,-c(1:3)])
" n! N9 S3 {- k& |6 ~& h reg.pred
8 s: r+ }) u6 s4 A ## 预测结果与原始结果绘图
$ y0 E# \* P o' B' U4 A plot(reg.pred,test.env$env1)
3 `$ Y" f3 j# ~5 Z4 i abline(0,1)
5 }! f' x. {/ C, w9 v: r" t) k
7 W+ C' ]% K6 B/ h# P ## 计算残差平方和(MSE)和标准化均方误差(NMSE); c- |8 }' M% Q" u% ]
MSE0 = mean((reg.pred-test.env$env1)^2)( x3 B( f$ B( g
MSE0 X# _3 C7 X J @
NMSE0 = mean((test.env$env1-reg.pred)^2)/mean((test.env$env1-mean(test.env$env1))^2). n7 J1 h% `5 H
NMSE0! Q% H# l6 V$ P2 x+ O0 u- @* d/ |
& o @# k& t2 G( s2 y5 A0 B4 l
8 Q1 P4 W) B- ]1 C
* D, U( i! B! v% r/ w. H3 ? 图3|回归树构建结果,reg.tre。每个节点以整数标注,tree()默认树最大生长数值为31。因子变量的分类水平不能超过32。5 i& [! P6 t( ?/ M
2 m! c" h0 R C& k% _8 i* a! u 8 d8 s& p# t g7 z" }
' n# s( z. h5 x
图4|回归树输出结果,reg_tre_res.txt。var:用于拆分节点的变量及终端节点(<leaf>);n:每个节点的样本数量;dev:每个节点的偏差;yval:拟合结果,回归树为节点包含样本的因变量均值,分类树为该节点样本最多属于的分类水平;split: 节点拆分,2列分别是属于左侧或右侧的标签。, ^" u* B4 v' A
. q" |" c% y' l; R4 E& q( s; t
5 Z& `( |9 z" Z/ ^0 {; P
( ]+ X/ O0 C) c2 o4 g 图5|回归树输出结果描述统计,reg.tre.res。包括终端节点数、拆分使用变量和残差平方和均值等信息。
5 t% X i2 |" r! \
) u. R, n. @' i + j! V' j" h v( W f% R* d4 p
( F- i7 l! e- [- T# g/ M0 E
图6|简单回归树绘图。回归决策树的每个节点上的数值是该节点处因变量的均值。
) @( z! t3 ^ G% H/ g8 M+ E
2 Z# j) n, Q ]6 k: n9 k 2 m q5 C: M, K3 B6 ?
! D6 {7 e7 I0 {4 T1 s# ~, X0 y9 [
图7|测试数据因变量实际值与模型预测值散点图并添加趋势线。
( w' ~5 h2 |0 E" S4 @1 t- v# j+ X
$ F7 M- T# }& A: o& u7 _ ' V4 V! b2 @* \2 g, Z0 q
b! e; H' p+ n( u 图8|均方误差与标准化均方误差。评价模型预测好坏的一个准则为标准化均方误差(normalized mean squares error,NMSE)。0 u, H& b0 A9 @9 X# Y( M* G" }( e9 Z
( ?# N( V/ w" `+ E
7 Y0 h6 }+ m7 ~: J3 ]
! i# o0 z( w& b' r" |% s 分母表示用最简单的算术平均来预测y的残差平方和。分子为该模型拟合后的残差平方和。此模型的NMSE不小于1,说明此回归模型没有任何意义(NMSE≥1)。此处是虚构数据,只讲使用方法,产生的模型没有任何意义,也没有影响。2 J2 y) [" }) X' F! a; w+ R! N7 `
& j+ J: i z6 L! ^
2.2 优化模型-剪枝(Tree Pruning)
x: A+ V4 ^/ `$ q, r5 @ 经过上述过程,构建的模型可能会过拟合,导致模型对训练集数据有很好的预测能力,但对测试集数据的预测能力较差。可能的原因是生成的决策树模型过于复杂。
& f; y. o) y. P! B" F . |# O. {# `7 Y
解决的方法之一是仅在拆分能使RSS降低值超过某个阈值的情况下才继续进行拆分。但是低于某个阈值的拆分点的之后的拆分点可能降低RSS的能力很强,所以不能随意剪枝。所以更好的优化模型的方式是先不设定RSS阈值,构建一个较大的决策树T0,然后根据某种方法对其进行剪枝获得子树。
% |, B6 Z! Z0 T9 I9 x + J7 z7 @+ P' K# V
剪枝的标准主要为获得的子树的错误率最低,常用交叉验证选择具有最低错误率的子树。但是子树集一般很大,所以一般限定在一个更小的子树集中进行交叉验证。这里引入一个新的概念复杂性代价剪枝(Cost complexity pruning,或最弱链接剪枝(weakest link pruning))。此时剪枝不考虑每棵子树,而只考虑由非负调整参数α索引的树序列。然后基于交叉验证选择α。α控制着树的复杂性及树与训练数据的适配性之间的权衡,当α=0时,子树T就是T0;当α的值逐渐增大时,表示拥有许多终端节点的树要付出的复杂性代价,因此终端节点越少,α值将会越小。: N2 n: R' r- I! |% P+ n$ L$ Y
, ]0 y# S' o) r) c- @5 S; b3 k3 O 这里介绍两个定义方差(variance)与偏差(bias):1)方差是训练数据集的预测值或预测分类水平相对于其他数据集的预测值或预测分类水平的离散程度,代表了模型的泛化能力。2)偏差是模型的预测值或预测分类水平与训练数据中的实际值或实际分类水平之间的差别,代表了模型的预测准确性。模型构建要在方差与偏差之间权衡,使总体误差(偏差+方差)最小。9 D9 e8 f2 ~# P; K" q- j) R
( [ ?% @9 O, x
一般模型越复杂,偏差越低,方差越高;简单模型一般偏差较高,方差较低,所以构建总误差较低的模型需要找到合适的模型复杂度。
9 m5 U& R4 A1 N0 L/ W" t
* H! d" h" _ n" v! Q! S" V # 2.2.1 交叉验证寻找最佳终端节点数, {" T( m5 n# F4 y. C
set.seed(12345)
* R1 i' ?9 a% F+ ^1 a$ b. l5 ` reg.cv = cv.tree(reg.tre,K=10)
, m4 o! k1 W9 X) U" J5 P! @# ?$ D" P reg.cv* J) X% F) s# F
plot(reg.cv$size,reg.cv$dev,type="b") # 终端节点为2是偏差最小" J4 P" z0 |* j" E
+ [% K, ^! a5 d- b/ b # 2.2.2 剪枝优化模型; N$ u; B& v% N+ M/ k
reg.prune.tre = prune.tree(reg.tre,best=2)" t( Z. ` i& N
reg.prune.tre- a" J* [9 m$ o' {! K' B
2 u& C, { O& d; p. ]$ g # 2.2.3 绘图
1 h* B+ Q! n* D3 E2 O0 d* w. S plot(reg.prune.tre)
) F- H; s2 Y* ] text(reg.prune.tre,pretty=0)
) _% N" {- W5 d# ` u% \. n3 ? 5 W$ R) h! @/ Y
# 2.2.4 修剪树预测测试数据, x7 H0 s$ y" g: Z/ D
reg.prune.pred = predict(reg.prune.tre,newdata = test.spe[,-c(1:3)])
. n7 g F! C% t/ g0 t' V reg.prune.pred
* y4 j( S D& G% @ ## 预测结果与原始结果绘图
5 q T% X# B* E plot(reg.prune.pred,test.env$env1)
, `4 }1 z; `: l* j; M- r9 Y abline(0,1)$ s W" h: `$ M1 }( C( p ?
- T& b- t5 V! E/ E ## 计算均方误差(MSE)和标准化均方误差(NMSE)
/ j1 v, t( k" ~3 i) g3 b' h4 H MSE1 = mean((reg.prune.pred-test.env$env1)^2)
( C* |( b7 T7 E1 {6 d w MSE1
9 ~/ ~( s/ q$ S _& m3 I( X NMSE1 = mean((test.env$env1-reg.prune.pred)^2)/mean((test.env$env1-mean(test.env$env1))^2)
/ R1 ?0 Q9 F; A; L NMSE1) }, l% g! K9 n) x4 g
, d- N2 _+ L' U' t2 a, D
% r8 L- }8 A( K7 @9 U6 J. }
9 A* v5 g; S! l2 m7 y" X5 i; S% z- w 图9|交叉验证结果,reg.cv。当终端节点为2时,交叉验证偏差值最小。# q9 b" z" x: t+ q; v$ g
e! z: |# b/ Y8 e) j/ Z
& J- o: i- A+ O& C) k4 x4 J
4 H. y2 p) w0 t$ g% f8 y 图10|交叉验证结果-终端节点数与对应偏差绘图。# |+ ~3 G$ x4 `: n9 l3 O
& B: ~+ @! C: M& L- C$ v" g. s
; u& ^1 q- B$ G. u+ D7 i
- R& Y, q+ F. ]: H; U! q
图11|剪枝后预测结果的MSE与NMSE值。剪枝后模型的NMSE值仍然大于1,而且值反而增大了,因为原始模型就没有什么意义,剪枝对原本就没有意义的模型,达不到优化效果。
! h5 l; R# [8 |) ~4 K# ^ & R- i# z! r3 f0 i% p* F
三、决策树分类模型 0 z4 w) n7 ]) A( q
4 p+ k. |, c- Z- V. S8 ^
分类决策树的因变量是定性变量,构建的模型也是用于对观测值进行分类预测。模型对变量进行递归二进制分裂来使树生长。分类误差(classification error rate)对树生长不够敏感,因此常用Gini index和cross-entropy两个指数对分类决策树模型准确率进行判断。) U: z" m G! x& P; X
+ q$ o+ V$ o( n0 {8 v. }
2 _; U5 U; F& ^6 B+ z
0 ~% z, ]% ^, K! f: b
4 W0 [7 z8 u0 f7 U; H9 H8 p& |! u
2 a: \1 ?( K0 n5 _) b4 D6 l- e3 H Gini index是节点纯度(purity)的检测值,其值较小,表示节点包含的样本更多属于单个分类。
( A+ l, a: n6 f; l# G5 ]1 x
m) ^" [$ N7 L' C- o
) ?9 s* u# i4 p/ m* p 4 O0 Y ~% c" x( l0 l% i" F d
* ^% k- w- x% k( i & a+ W" Q8 e# A! [
3.1 tree包用于构建分类决策树(Classification Trees)
! }; k7 F# v3 F% g
) G! c+ _1 E( b8 m) n7 @ 利用微生物组数据,以grazing为因变量,其它变量为自变量,构建决策树。; F! l2 w" s, s0 T1 i
- ~1 }9 ^0 F# h) v% ~9 A
# 3.1.1 分类决策树' P' y3 @6 Z. g3 M2 |% @' O* v* b
tre = tree::tree(grazing~.,train.spe[,-1],# 用于构建决策树的变量可以是分类变量或者定量变量。
5 Z4 o$ Y+ y) q6 t' ~% Q7 V na.action = na.omit,) @1 J) u: h) N0 p1 S# r) c5 N T" z+ T
split = "gini",# "deviance", "gini"
9 I, z' V2 m! B3 {9 a x=TRUE,- f2 w3 S6 c+ O1 H3 I; w
y=TRUE,$ l: _/ C0 Y! J1 A$ m. Y
#wts = TRUE # 设置了样本weights参数,则返回权重值。: r; D1 H b* P- \8 R1 l5 S
) " w) [; s0 c- N% U5 b
tre3 {6 x# D1 i3 I+ V H- D8 j9 x
## output: G; P( l7 P' {6 j
write.table(tre$frame,"class_tre_res.txt",sep="\t",quote = FALSE,row.names = FALSE)# K) i. k! K9 v
0 i/ Y: Y" T- d i0 @$ c( C
# 3.1.2 描述统计
4 G) t. U& @1 o6 B( n- G tre.res = summary(tre) # 输出用于中间节点拆分的变量,终端节点数目和error rate。5 ~ w, L, b& |: n' Y4 C% ]
tre.res
: T+ n z. I" R+ L tre.res$call3 ~" g% B( @7 X
tre.res$type
6 ^; Q" J+ d2 X5 Y( @2 c% L tre.res$used # 用于中间节点拆分的变量 s& Y' Y5 m; A
tre.res$size # 节点数目
# b5 ]1 @7 Z: i# ?6 N, ? df = tre.res$df # 自由度=样本数-终端节点数目8 J9 r- d2 \$ Y. s. R
df, b/ s1 g# x) C- K0 \
dev = tre.res$dev # 所有节点包含的分类偏差
, p: t0 I/ Q* G" H/ t" h9 [+ I dev
y9 K7 g* z$ m; B# [6 H) _ tre.res$misclass # 错误分类样本与总样本数目
: I* `/ F7 V' T- T
& n! T. |3 C8 g! b4 S6 j) | / q0 Y" U9 M" f" l
6 b6 V% N) z) b6 E* n9 v. ^4 V! \
# [5 H( r" K* f7 x 图12|分类树输出结果,class_tre_res.txt。var:用于拆分节点的变量及终端节点(<leaf>);n:每个节点的样本数量;dev:每个节点的偏差;yval:拟合结果,回归树为节点包含样本的因变量均值,分类树为该节点样本最多属于的分类水平;split: 节点拆分,2列分别是属于左侧或右侧的标签。yprob:回归树,此为NULL;分类树则为因变量各水平的拟合比率(即每个节点中属于各分类水平的样本的比例),此数据有5个处理,所以有5列。
: S m7 y( ]6 `5 ]
1 D x8 v6 I# a- W5 ~, N. L8 \ 8 Y$ q9 x8 ~5 D0 m H1 _0 X
8 L. F4 m/ [# X" {+ h& c
图13|分类树输出结果描述统计,tre.res。包含用于中间节点拆分的变量,终端节点数目和分类错误率等信息。& D6 u* V: i1 r9 e
5 Q. W/ D9 S) u9 ]; o) f
# 3.1.3 绘图查看决策树
3 }- `/ }& l0 C; Q, ~ plot(tre). m* [" j! r; d8 s( t( S# C6 v
text(tre,pretty = 0)
% k- r& N% x* Z+ M L; Q) f) \8 ~! J. J
8 l/ f4 ]1 J+ S3 F- L # 3.1.4 预测测试数据集。
& n) o+ B, ]6 R; T% Y library(caret)
0 O; r) l& G. k5 ]7 @$ L, q tre.pred0 = predict(tre,test.spe[,-c(1,2)],type = "class")
6 @2 `1 N% }$ O" Y, h8 O ## 生成混淆矩阵
; m+ I' l2 R4 z: W4 H& T caret::confusionMatrix(tre.pred0,test.spe[,2]) # 分类准确率为40%。
/ g$ T8 R8 H3 b# g M
- }7 v- H' A4 i" E7 z1 j$ ] 1 u3 l8 t7 L* {: ^2 V
# t( P. c) q$ e v; @
( M6 t6 f$ r1 J. C: @9 `* U6 k
- C2 h' P3 C" ^% I 初次构建的决策树分类错误率较高,40%。为了得到更好的分类结果,通过交叉验证进行剪枝调整决策树复杂度。$ M" G; i2 k9 E4 w$ h* d
1 u$ {0 j+ m9 r/ \4 k2 `. N! a
3.2 剪枝优化模型 s7 P6 E( M4 \6 h$ o
2 ?' l- u' B" A+ K 如果后续分析的目的是提高分类预测的准确性,则常使用分类错误率作为剪枝(pruning)的选择标准。
# U0 E/ \! O! [( N0 U$ l# O
# E! n# S5 L' i8 ?. C$ a. ? # 3.2.1 cross-validation 优化模型
3 q, w% X/ G9 |3 ~ set.seed(12345)3 X# A, h; T, D+ W* |
cv.tre = tree::cv.tree(tre,
6 D' Y \* ^+ j5 H I FUN = prune.misclass, # prune.tree,prune.misclass可选。
7 `1 q7 c5 j9 R/ w8 ?3 I. [7 s K=10 # K folds,可根据样本数目调整,50能被10整除。
r- y! x6 V0 \0 x i ) # K值设置不同,结果会有很大差异,可以多尝试几个K值。/ g1 M7 r# {) ~3 S/ a; G; C1 l
names(cv.tre) # 输出结果2 ~$ h4 O, J; r0 z! R
cv.tre$size # 每个树的终端节点数目
9 s; G+ O* W1 D7 M& v cv.tre$dev # cross-validation error rate
5 k4 D/ p2 W$ |$ z8 u0 t9 v* p cv.tre$k # cost-complexity 参数值 T, N* J" w2 Y; U& L. j
( {* g# F# O( X6 ~8 B
## 绘图选择最佳终端节点数) A6 J# i/ \" `# T9 y2 G8 T; o5 b
par(mfrow =c(1,2))
* H3 I6 G* s: O% {. n- _7 s, C plot(cv.tre$size,cv.tre$dev,type="b")! r5 z* p5 U0 ?' f2 w
plot(cv.tre$k,cv.tre$dev,type = "b") # 检测具有最低交叉错误率的终端节点的数量。0 W" g5 N5 @, h% }9 a
. S! T, W3 b; l) E 1 \+ A8 y4 |# R; U
' ?* e$ \: e: r: w! H4 y8 O: I7 C + e/ O& s: `; M# ~( u9 `& H9 Y
图14|交叉验证结果,reg.cv。size:每个树的终端节点数目;dev:cross-validation error rate;k:cost-complexity 参数值。3 V4 |8 b% E. f
/ L& |: d2 q# `* J3 F
* a+ Y* ]; j, J8 |3 `7 F8 A: p ; C4 D9 n3 `; l# X2 D! ?
图15|交叉验证结果绘图。结果显示在终端节点数为3的时候误差率最低。当最低错误率,具有几个不同的终端节点数时,可以秉承简单模型的原则,选择最小的终端节点。也可以根据绘图结果,选择合适自己数据的终端节点数。当终端节点为1才有最低误差时,就选次一级的终端节点数。
8 T# `+ M5 j6 j5 A- F 6 O; O# A+ c; c2 v, A# W* e6 b
# 3.2.2 使用prune.misclass()修剪决策树,设置终端节点为4
. }6 A" m: @1 H6 m; D ##通过递归地“剪裁”最不重要的拆分来确定所提供树的子树
- f, @5 O& U8 _- M1 X: t- M. ^2 q* S ##"剪枝"结果必须是决策树的子树,所以有时输出的子树终端节点并不一定等于设置的best值。6 X1 s2 D0 f9 _* d8 p% o
prune.tre = prune.tree(tre,! P: z5 v6 T+ q
best = 3,8 e& S3 C& Q9 ?6 f/ R2 O
method = "misclass") # deviance和misclass可选。0 G) Q9 H2 z1 K% } c7 c
summary(prune.tre)8 z# {, X& i& B5 J0 v) x7 B0 c3 B
plot(prune.tre)
k% C+ S) G- N( c5 p- } text(prune.tre,pretty = 0)1 Z+ s% O% L& |) K6 G$ d) ?
6 j3 L/ Y0 X2 P- ]' D8 w. i- j! Y
# 3.2.3 修剪树预测测试数据集--提高分类结果准确率(所有分类正确的样本/样本总数)
: p! ^0 a5 y+ h+ | n. X ## 增加终端节点的数量,反而会降低分类准确率! M) c7 E! A j5 [1 X$ j# c, w$ H- }; w
library(caret)5 F1 g8 l, E. u) `0 P
tre.pred = predict(prune.tre,test.spe[-c(1,2)],type = "class")
3 a! j* {7 r' }6 Y+ m caret::confusionMatrix(tre.pred,test.spe[,2]) # 分类准确率为36%,剪枝后准确率反而降低了。
; _& R- k; h6 Z5 h% K2 g) ^ 2 _% k$ q9 Z( _) a
4 I' N9 ?& z9 N 0 m, Z0 l% ?+ ]8 h' F, E% f
图16|剪枝后分类决策树,prune.tre。树生长总是从左侧开始。经过剪枝的分类树并不总是会提高分类正确率,有时还会降低分类正确率。比如此数据就是如此。分类争取率也比较低,说明数据不适合决策树模型。
# U7 r b0 O! T . }4 C& w5 @3 ~, n' a
微信公众号后台回复“决策树-tree”或QQ群文件获取数据及代码。% @# M0 Y. p% e4 k. e$ O2 }# c) G( k
5 C0 l% @# X: q+ W |) t
机器学习-多元分类/回归决策树模型(tree包)3 t. Z4 s9 c9 }0 i( r: e8 w
3 x: [( I+ S" {' I
参考资料:
0 T) {5 J& L$ u* Z& Y) ~ # H0 ^6 u. A" n3 F/ R1 B _
James, Gareth, Daniela Witten, Trevor Hastie和Robert Tibshirani. An Introduction to Statistical Learning. 卷 103. Springer Texts in Statistics. New York, NY: Springer New York, 2013. https://doi.org/10.1007/978-1-4614-7138-7.
a0 c# R' A( |; q H8 R) e+ l $ |$ T4 u7 y: [) \6 o) C
《精通机器学习:基于R》第二版: C% ]" p7 P0 @8 S1 u, \" J
# _" k+ k5 H" B- T8 M3 P& l* O
统计学:从数据到结论 第4版,吴喜之编著,2013,中国统计出版社。, E" t& C. Z9 n! R2 ^
. \, n5 g' I! S( y- T9 N$ B) S 推荐阅读7 d4 R7 L: `0 `9 `0 h0 t
4 ]5 L: a$ d' V7 k R绘图-物种、环境因子相关性网络图(简单图、提取子图、修改图布局参数、物种-环境因子分别成环径向网络图)
) r& r/ V: b; Q: H2 L0 [* ~; d - j4 N; R& z/ D6 J! ~+ e+ P
R统计绘图-分子生态相关性网络分析(拓扑属性计算,ggraph绘图)
z6 C8 U# q4 ^+ V 5 j+ x* s0 I* i7 U( X4 D8 p# d
R中进行单因素方差分析并绘图8 L' m8 r; }6 v5 _
0 M1 \) y, p& |
R统计绘图-多变量单因素非参数差异检验及添加显著性标记图) T8 c5 S$ B" [8 m q+ r
" b. H6 d8 h7 T: U( ? R统计绘图-单因素Kruskal-Wallis检验9 o- V& J0 l% C; P: n4 @/ |# G# f: j
- R* j1 o- I) U x$ L$ a3 f
R统计绘图-单、双、三因素重复测量方差分析[Translation]
$ o3 U# l" \( N# g
k- A; h9 J1 k9 |) I" ?# @! `5 E* U2 J R统计-多变量单因素参数、非参数检验及多重比较
4 {* K$ |" d0 J b2 t8 k* `
+ @: l* k: [. }) @" B' T6 Q" J R统计-多变量双因素参数、非参数检验及多重比较
$ D; n) g0 N0 M* H( A 8 X: x7 L J9 X& L* _& [7 a8 x) j/ M
R绘图-KEGG功能注释组间差异分面条形图1 @8 N$ C1 U$ m, |, D, m. R
3 _; n4 U. q5 v6 J
R绘图-相关性分析及绘图$ h" k4 h. e" h# X. {8 v$ S
0 {' A# W2 n" u& D$ r5 G/ j
R绘图-相关性系数图 J' n4 c/ i8 i g. I* e
b+ z1 r& g0 A. x# J: D" W# C6 F R统计绘图-环境因子相关性热图8 t& v, m7 \9 Y% N0 |8 ~
3 T( `6 |9 _, d M& H R绘图-RDA排序分析
S: P/ m/ D/ ]$ \
! n( I4 G; Y9 S1 B8 v/ ~" h2 E R统计-VPA分析(RDA/CCA)5 }' e& \! y9 g
+ N1 U! r* [: R0 R* |. ^
R统计绘图-RDA分析、Mantel检验及绘图
- [; J* e/ H. K8 ` 4 [. t4 l1 P; Z3 j6 r; p
R统计-PCA/PCoA/db-RDA/NMDS/CA/CCA/DCA等排序分析教程
& L+ C! ?# q3 o/ }) l
$ q% a. U# R, y4 [. R; L2 k7 G R统计-正态性分布检验[Translation]3 ^: Z0 `; d* K: X. m- Q/ W
: y, n- U! q& h) k R统计-数据正态分布转换[Translation]
# O+ N! Z9 T5 _. ^2 ]( A " P4 v4 M9 K6 ~/ `9 l* ?6 K
R统计-方差齐性检验[Translation]' z1 N" \% a0 P7 b
$ s9 x3 L. Z9 j
R统计-Mauchly球形检验[Translation]
7 C6 `9 {$ H" K ( b7 M& g9 c8 W1 ~- J
R统计绘图-混合方差分析[Translation]" _- [0 n- z* ~; ?- s9 ^. }
: R% p) K b1 N! a
R统计绘图-协方差分析[Translation]
* T) `' [! G8 |) g
$ W6 N9 X8 ?& D* X$ Y7 z R统计绘图-RDA分析、Mantel检验及绘图
' q7 Z, ^' V: t9 t" w
* c7 d& V+ s( W; W y" w% ? R统计绘图-factoextra包绘制及美化PCA结果图 Q% n, h+ V% ?. M- U1 `
5 ~/ C3 {: ]7 U r
R统计绘图-环境因子相关性+mantel检验组合图(linkET包介绍1)
6 N! @3 n% o2 D& c
% _; t! I! a& d3 u7 ^" |: u R统计绘图-随机森林分类分析及物种丰度差异检验组合图
$ f6 }: m7 D0 ^% f
- z( f8 {/ D% P- @ C/ c. T p 机器学习-分类随机森林分析(randomForest模型构建、参数调优、特征变量筛选、模型评估和基础理论等)/ V7 D% c# H n" m! O' ?* M
————————————————: A$ s% F9 ~- ]1 U, Q
版权声明:本文为CSDN博主「静默人声」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。0 Y/ ?0 P) p, f$ E! f( n
原文链接:https://blog.csdn.net/qq_39859424/article/details/126801817
3 J8 u8 ^6 J+ G% P" t5 f- a' X
: |0 t1 L+ A# J; W/ l1 w+ g 4 o( E3 A k' }5 ~2 D% S7 [
zan