QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2681|回复: 1
打印 上一主题 下一主题

详细讲解分类模型评估

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-19 11:53 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

      N; C3 O4 p; X# B9 z9 j9 ^& ~详细讲解分类模型评估分类模型评估9 M2 I. z1 D* g% u5 d0 y

    ( a- m/ f. }/ a1 p4 j( \5 ^( U/ o0 I* |1、分类模型' l3 Q5 d5 M( g7 j8 u- H2 A& l
    主题:如何对分类模型进行评估% R) y5 G$ @: E) W' u  T
    目标:+ ^( E! ~4 u2 |3 Y- t3 C
    2、混淆矩阵7 R6 x+ c7 i: W( D8 U& B4 o! }; C. R
    3、评估指标
    + O4 T) F" T6 u2 q3.1 正确率# R1 G6 J0 d0 o0 R4 B! o, C
    3.2 精准率% b# r1 h* N: x, Y: i: s
    3.3 召回率
    . @6 C: p9 X, m$ Z3.4 调和平均值F10 K# @1 F0 i: |# L- c5 a. S
    4、ROC和AUC" t, |" A' R& a3 V* U
    4.1 ROC曲线* w( |' J/ ]3 K# A
    如何画ROC曲线:
    . M6 H0 O' D0 M( {4.2 AUC
    2 J' I4 Q8 ~# U; l. w. r) Y4.3 ROC曲线程序示例& ~* y3 |! |  S6 i' o' p8 Y
    4.3.1 roc_curve函数的参数6 p  Q. f2 O# _
    4.3.2 roc_curve函数的返回值( A: f$ ^2 {0 e# V
    4.3.3 绘制ROC曲线$ U6 S4 j' Y0 h. S+ k
    5、总结
    ' q1 ]( t& t7 b% m1、分类模型1 b, Y" L- J8 \: m6 c
    - U: l8 g( |) v6 n, Q
    分类问题在我们日常生活中处处可见,比如我们对帅哥的分类,可能对帅哥分为非常帅和一般帅。比如我们平时刷淘宝,淘宝根据我们平时的喜好给我们推送产品,那我们就会把产品分为感兴趣和不感兴趣两类。4 X1 z) U! Q  s( f
    上述所说的问题就是典型的分类问题,确切的说其实就是二分类问题。4 W/ h, K5 a+ X9 V* `. y
    能够解决这些二分类问题的数学模型就被称为二分类模型。
    $ R6 ?6 A, G$ {& B& G" }9 s用数学的方式表达就是,给定自变量X,代入到我们的分类模型F,会输出因变量y,y的取值为0或1,其中0代表负样本(一般帅的帅哥、不感兴趣的推送),1代表正样本(非常帅气的帅哥、感兴趣的推送)。; ^. w: d# Z# A) D
    6 t/ d: A5 T1 J( l7 U7 G& c% r
    主题:如何对分类模型进行评估
    ! N9 \0 R* [& ?' C* Y+ b, K) d) t
    - A7 M9 \2 B) q, W' W* {目标:  V4 G7 N4 v3 D9 C' R5 J

    # B4 k8 p& s% M/ }3 g3 z能够熟知混淆矩阵的含义。
    ) ]% }; g' h( r, E) N$ _能够使用各种指标对分类模型进行评估。9 f5 N1 a) G( a9 f0 F
    能够独立绘制ROC曲线,并熟悉该曲线细节。  C' Q/ t6 c$ d5 Y- \
    能够对样本不均衡进行处理(扩展内容)。1 f& S/ z9 w& u/ i; @+ I
    2、混淆矩阵
    : r$ [- G, Y& S& s$ d& n  x1 }% c  y
    混淆矩阵,可以用来评估模型分类的正确性。
    " h' @" L/ T  m8 l该矩阵是一个方阵,矩阵的数值用来表示分类器预测的结果,包括真正例(True Positive),假正例(False Positive),真负例(True Negative),假负例(False Negative)。
    * \! Y5 T3 g$ p 1.png
    ( b' S$ P% N9 {% E5 V: u矩阵的形状是2 x 2,其中, - 矩阵的左上角表示,预测值为1,实际值为1(True Positive,简称TP); - 右上角表示预测值为1,实际值为0(False Positive,简称FP); - 左下角表示预测值为0,实际值为1(False Negative,简称FN); - 右下角表示预测值为0,实际值为0(True Negative,简称TN);4 a$ _# ]1 d, m6 n) Y( A
    " h+ f0 P& k$ g- b8 d
    真负例(TN)+ 假正例(FP)——每个类别真实存在的负例的数量6 F& s3 K& C: i% b' e% u
    假负例(FN)+ 真正例(TP)——每个类别真实存在的正例的数量! \+ t8 E# O- \/ j- a; j6 h8 m
    真负例(TN)+ 假负例(FN)——每个类别预测的真负例数量+ ^2 w' B% A! A8 H; {2 z7 N
    假正例(FP)+ 真正例(TP)——每个类别预测的真正例数量
    0 h$ h: y6 a( v. t+ o) q其中:
    / d; u+ i+ A0 c( F
    8 m3 ?- `; o; m* `+ Y5 ?$ CTP:真正例,实际为正预测为正;
    $ D" h3 O% v: E  S' S$ bFP:假正例,实际为负但预测为正;
    1 z" u' F, s+ J0 F0 cFN:假反例,实际为正但预测为负;  k: T5 c- r5 ]
    TN:真反例,实际为负预测为负5 W6 t1 c3 U# F7 r+ e2 w
    接下来,我们通过数据来看下鸢尾花的混淆矩阵:
    " M! A) E, E4 l4 Zimport numpy as np
    . e3 ^6 w2 y6 w0 W, B0 Cfrom sklearn.datasets import load_iris
    2 g4 h) o# f; f5 P  a, G; [. ?4 G' \' ^- Wfrom sklearn.linear_model import LogisticRegression! ^7 T9 P% o% a9 o" H
    from sklearn.model_selection import train_test_split
    & h, q: K4 ^0 K) X# [, n+ Q# 混淆矩阵; v7 T( \: C5 w% L% V, \3 L
    from sklearn.metrics import confusion_matrix9 \4 j' G2 _5 ^& |
    import matplotlib.pyplot as plt
      P5 x* z6 d+ z' rimport warnings" H% u+ D4 L9 G* X& @
    7 L  x3 T$ P9 P/ J' C2 d/ \
    plt.rcParams["font.family"] = "SimHei": N+ D6 {/ J" }) u$ m9 a
    plt.rcParams["axes.unicode_minus"] = False$ G, D: n7 L) I, c" p( ]' c
    plt.rcParams["font.size"] = 12/ g& p5 t* [; Z
    warnings.filterwarnings("ignore"), b# ?+ Q  k1 c: o2 x
    0 Q: L7 V7 s: A, T. o; t( s
    iris = load_iris()  #导入鸢尾花数据集
    " B* s) K9 \1 c2 b4 _, t! @X, y = iris.data, iris.target
    7 r1 S" r/ O& J2 q8 {X = X[y != 0, 2:]3 ?8 `4 ?6 o6 R1 M! p8 g7 q
    y = y[y != 0]8 A) n( g6 |+ ]6 ~0 L0 X! i
    y[y == 1] = 0  b- x7 q0 t/ K6 P- g+ D! I+ X
    y[y == 2] = 1+ G& E6 k; k; y: g7 m$ n% H/ d
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)
    4 |+ i; p" S$ W6 Blr = LogisticRegression()  #使用逻辑回归
    1 L% X& T$ U8 N) v8 p, @lr.fit(X_train, y_train)6 J. r8 w2 G: j  j# t" H5 Y) E
    y_hat = lr.predict(X_test)
    8 ?3 u( d  F# \( a8 q1 Y* y# 根据传入的真实值与预测值,创建混淆矩阵。
    * y) `8 A; s* @8 y1 b  }7 }matrix = confusion_matrix(y_true=y_test, y_pred=y_hat)# I. @, N( c. u1 i& W/ n
    print(matrix)
      i1 p2 ?: \& I) c9 {  s
    , B9 M% T# q# [/ F& v& P) b
    9 T5 ]( J* [, s; H# I. h2 e输出结果:) c8 [$ c. f. @  @' i$ @# Z$ {
    2.png
    5 ~; _5 O- |  T我们还可以对其进行可视化操作:
    , ~3 v  L; J' z- gmat = plt.matshow(matrix, cmap=plt.cm.Blues, alpha=0.5)    #cmap 指定颜色图色系,alpha透明度
    ) e( T9 X  p" m3 ulabel = ["负例", "正例"], u/ D; Z: n( p8 e* X4 {; `
    ax = plt.gca()8 D6 W% F5 M; [
    ax.set(xticks=np.arange(matrix.shape[1]), yticks=np.arange(matrix.shape[0]),  N9 |, S  V; p5 C  n
            xticklabels=label, yticklabels=label, title="混淆矩阵可视化\n",4 D* d, |, J0 _# x# J) A* r4 q: w
            ylabel="真实值", xlabel="预测值")
    + J3 C6 @3 e9 hfor i in range(matrix.shape[0]):
    " x8 {$ c0 \1 k7 z0 x    for j in range(matrix.shape[1]):1 s2 `& b* i4 ?+ r
            plt.text(x=j, y=i, s=matrix[i, j], va="center", ha="center")
    ! b! `9 {. v" ~' ~. e; n. ^a, b = ax.get_ylim()
    & e2 j! e- r* H: Iax.set_ylim(a + 0.5, b - 0.5)
    0 Z: C  M. X3 p$ y- B' {plt.show()/ b9 g9 T6 C# H/ I

      c4 M+ U7 e/ x8 h- h, c/ ~2 y$ q* c/ B& ~4 D" Z/ B: g! d3 n
    代码解析:
    " I9 @# K/ t* Q7 qmatshow( ) 绘制矩阵,alpha 透明度
    - a! k: B. K+ I结果:$ a# b. c, u  z) V5 v
    3.png
    % G4 c" P- L; @练习:
    % ^5 {6 P( x: N: j7 ^  l" s7 E/ {6 H8 D" r7 w& f" O
    关于混淆矩阵,说法正确的是( ABCD)。【不定项】/ D, U. L0 u$ f* N
    A 混淆矩阵可以用来评估分类模型。4 x( Q2 W. ]2 ^! f
    B 混淆矩阵中,TP与TN的数值越大,则分类的效果越好。
    7 }$ k9 s2 ]/ B/ r; d. _9 O9 O0 nC 混淆矩阵一行元素的和代表某个类别的实际数量。* l( X! l: P! e0 i7 I
    D 混淆矩阵一列元素的和代表某个类别的预测数量。
    6 A* D; x5 t! _6 ~3、评估指标. h3 M: ]- b* x3 m1 A6 h

    + `8 u" _; @" m) U% R% y对于分类模型,我们可以提取如下的评估指标:
    % y8 m) [# R) v$ y% W4 g3 @3 Z- ?" `8 |
    正确率(accuracy)
    6 N4 c4 ?. e7 _精准率(precision)
    / Q8 T% l" p: t2 a召回率(recall)
    ) \4 C& r# @" U/ `# W1 [F1(调和平均值)
    6 K' [& p; L) S; q- _: m3.1 正确率
    1 ^5 k# N4 m; s, @0 V6 ^" K 4.png
    4 X) \( B6 H( v  O' ?正确率(准确率)定义如下:
    $ F5 ~3 w& t5 u7 Z3 {衡量所有样本被分类准确的比例。
    . F0 V) ]2 F3 {9 C2 XAccuracy = (TP+TN) / (TP+FP+TN+FN)
    . U) A+ J; a9 X# z  Y  B* N2 k) G# B. v8 _0 E5 h  y; s6 C
    预测正确的数量除以总数量。1 R' j$ O# l. Y2 B, A
    ( p7 ~+ b. k& h' v5 L
    3.2 精准率
    8 k5 l4 [+ p* S) i8 Z! D6 Z 5.png 7 e4 s2 W! E( P4 {& X; V: t0 C, `
    查准率(精准率)定义如下:1 j" r" p, @) U& n
    衡量正样本的分类准确率,就是说被预测为正样本的样本有多少是真的正样本。
    * P8 C3 p# j+ {- _Precision = TP / (TP+FP)/ r, s) v. S6 t5 k6 H. Y, d6 L
    / U+ o5 @7 c- v
    精准率只考虑正例。
    6 W0 f  e1 B7 ]$ W- m0 _$ j
    4 V% l5 K# n- H/ \3.3 召回率" l/ w& |# F- g8 v
    6.png 1 T/ g; h- K* x/ ]
    查全率(召回率)定义如下:
    - J, J# S/ h; m表示分类正确的正样本占总的正样本的比例。
    / f/ ?& A* M$ V0 j2 `- ]' ZRecall = TP / (TP+FN): P9 q, b# p+ J& t9 v
    ' h) Y. x% ^- y7 c8 A
    # D8 L' [( ^. i) M5 w% _
    3.4 调和平均值F1& {+ l/ c( U) w
    7.png
    ) x8 C0 }- u: k% X( vF值(F1-scores)调和平均值F1定义如下:0 K; e/ S. G  d1 r
    精确率和召回率的调和平均。
    2 D% x- D6 I) n- U2 k- I" J精准率Precision和召回率Recall加权调和平均数,并假设两者一样重要。) ^# E% \) h' ?

    8 Y6 N$ @9 C& h- y' U8 l. E7 E! rF1-score = (2Recall*Precision) / (Recall + Precision)- J2 r0 n  k" M0 F% g
    / \' _7 i' y9 K2 ?
    精准率和召回率是一对矛盾的度量。一般来说,精准率高时,召回率往往偏低;而召回率高时,精准率往往偏低。通常只有在一些简单任务中,才可能使二者都很高。5 U) Y6 ^$ R4 F' l% h" Z7 V
    最好的分类器当然是准确率、精确率,召回率都为1,但实际场景中几乎是不可能的,而且精确率和召回率往往会相互影响,一个高了另一个会有所下降,因此在实际应用中要根据具体需求做适当平衡。
    2 `" w( d) i6 n让我们做个练习加深下印象吧!
    0 q! u& B  e9 M. s; a0 Y
    3 @1 Z, I* l$ l! J$ d以下说法正确的是( C )。% ~" R# f2 I; n2 O3 E
    A 使用正确率去评估一个分类模型,效果会比精准率更好。1 o. D8 A; H; ~  c$ ^9 @% d0 |. b) c
    B 使用精准率去评估一个分类模型,效果会比召回率更好。
    . C" p3 x" R% W. ]  o6 H; V+ yC 精准率与召回率通常要联合使用。
    ! z4 [2 \  V+ W  a1 {! b9 ZD 精准率与召回率如果有一个值较低,F1值也可能会较高。% f0 O" _. g; H
    如果精准率和召回率我们只能选择重视一个,我们会更看重( C )。
    / g- m2 M* V" m8 s* w# AA 精准率。  A0 {2 x, y3 _3 o. f2 j
    B 召回率。
    : t' ?' w# H& _9 CC 具体场景不同,重视谁也会不同。+ }7 T: h* V  P
    接下来我们通过程序来说明下:/ S, ?' f3 a% V
    from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
    5 `  w6 @! {. a+ d7 q- y5 I6 I# H3 }& R7 W) ?9 I/ r3 V
    print("正确率:", accuracy_score(y_test, y_hat))) ]1 \! x4 q& }( t% a% _
    # 默认将1类别视为正例,可以通过pos_label参数指定。
    / n0 n; G: R7 I" sprint("精准率:", precision_score(y_test, y_hat))3 k2 R- e) R$ d* S; ]2 u! ^
    print("召回率:", recall_score(y_test, y_hat))" b) T. }4 u7 V$ D" o( e
    print("F1调和平均值:", f1_score(y_test, y_hat)); r" C# w6 e* `2 x5 c: P
    # 我们也可以调用逻辑回归模型对象的score方法,也能获取正确率。3 _4 p- E, f3 h; ?" ~0 J
    # 但是需要注意,score方法与f1_score函数的参数是不同的。" M3 }% l$ ~! z- x/ e( F/ Z  \. J
    print("score方法计算正确率:", lr.score(X_test, y_test))
    " K8 i, Y9 l% d/ ?9 K  t+ h/ w8 i, @* P- j* M4 F3 W) b
    / V% e& e: {. p# l9 t
    结果:
    " _1 L3 y. x, n6 y+ q3 M. w 8.png
    7 S+ P* H$ W. _6 T6 b除此之外,我们也可以使用classification_report函数来查看模型的分类统计信息,该方法会返回字符串类型,给出相关的分类指标评估值。
    ( A: {- a" e7 qfrom sklearn.metrics import classification_report
    * \6 g  j+ u" M4 s% U8 W7 f3 L
    & V1 U# }# a4 i% ^2 jprint(classification_report(y_true=y_test, y_pred=y_hat))
    , v. a) Z& M( k5 c
    ; A! e( C2 h  Z4 ?6 q) N7 t
    $ j% P/ Q) W) \" o- K3 j# c5 n# r% a结果:. @) o& ^( C, u( h; D3 V
    9.png
    % t( t+ |, ]' b; O: P7 o3 D! q  \2 @, A1 P& n! @
    练习:
    ; z) m* r- t* Y( `; v2 u/ ~1 d7 O) R
    如果使用精准率与召回率评估二分类模型时,我们应该将哪个类别设置为正例? (B)- S& a/ p% y  f
    A 随意
    + P. k1 W0 e5 a7 o) W9 I! V* mB 关注的类别
    . S: j3 N# w: F( wC 不关注的类别  e, l! p) A5 n$ w
    4、ROC和AUC" `+ f# x9 ~: J. J! |0 B) H
    : q. {5 g/ ?/ M7 c/ ~
    ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。
    + d/ Q0 y% I" _; ~! Q0 g6 E! j: Z0 L2 h
    4.1 ROC曲线# v  u8 ~" u. ^6 e9 Z0 T% {* x3 ^
    10.png
    * Q0 l; X7 f( O9 \& `. L. ^4 Z0 ZROC曲线(Receiver Operating Characteristic——受试者工作特征曲线),使用图形来描述二分类系统的性能表现。图形的纵轴为真正例率(TPR——True Positive Rate),横轴为假正例率(FPR——False Positive Rate)。其中,真正例率与假正例率定义为:
    ; d. n: K' L; b; s) |& J
    2 w8 M' z8 r0 o  I8 [ROC曲线通过真正例率(TPR)与假正例率(FPR)两项指标,可以用来评估分类模型的性能。真正例率与假正例率可以通过移动分类模型的阈值而进行计算。随着阈值的改变,真正例率与假负例率也会随之发生改变,进而就可以在ROC曲线坐标上,形成多个点。
    7 @( f* N6 V# l' W0 u8 E4 P8 Q
    1 o& j( `! z  _% {; X# i6 nROC曲线反映了FPR与TPR之间权衡的情况,通俗来说,即在TPR随着FPR递增的情况下,谁增长得更快,快多少的问题。TPR增长得越快,曲线越往上凸,模型的分类性能就越好。
    , J, S- [) Q1 z6 \  [% k9 b7 V
    $ h5 \$ p, \' z3 G  d' s7 |, oROC曲线如果为对角线,则可以理解为随机猜测。如果在对角线以下,则其性能比随机猜测还要差。如果ROC曲线真正例率为1,假正例率为0,即曲线为与构成的折线,则此时的分类器是最完美的。8 P3 q6 H' b3 z' s/ ?3 S
    # _' }# T! t) g+ {6 v% h
    下图就是ROC曲线的一个示意图:9 [# ?% C' F$ m7 W8 j  u* }
    11.png ) D; ^* g* s+ w3 ?8 W
    ROC曲线横坐标是FPR(False Positive Rate),纵坐标是TPR(True Positive Rate)
      a: L/ Q) N( H* ]' M, t& z接下来我们考虑ROC曲线图中的四个点和一条线。
    : h7 _9 k$ Y' i( [4 q
    0 R9 Q6 @. I/ l; F5 n- h, `/ X! x. I+ R第一个点,(0,1),即FPR=0, TPR=1,这意味着FN(false negative)=0,并且FP(false
    8 w8 o; b( H& ~3 A  H9 Zpositive)=0。这是一个完美的分类器,它将所有的样本都正确分类。
    : z6 I; s) w' U第二个点,(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。& T, O/ |% U0 h) i* d$ B+ N. I
    第三个点,(0,0),即FPR=TPR=0,即FP(false positive)=TP(true
    7 N# h# o" k1 }! Z: g3 kpositive)=0,可以发现该分类器预测所有的样本都为负样本(negative)。
    + L- D0 A- h) [  q/ U$ U第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。) t! `% q+ M8 ?) D9 r& A* s4 H# a1 j
    如何画ROC曲线:4 F) }$ v. w( k! _+ k
    0 n" x7 H+ @$ H  |& g5 _6 B( V
    对于一个特定的分类器和测试数据集,显然只能得到一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下wikipedia上对ROC曲线的定义:
    % R* P0 r; w& H4 h! W6 G& J1 l. O( o* `: z$ t
    A receiver operating characteristic curve, i.e. ROC curve, is a
    / V- L7 G; U9 P! s; Z' D1 cgraphical plot that illustrates the diagnostic ability of a binary. h4 d- `! t1 V3 W( j7 V9 |0 G
    classifier system as its discrimination threshold is varied.& Q. r. @. b2 j* R
    译:ROC曲线是由一系列因区分阈值变化产生的点,用于描述二分类模型的判断能力% o6 f6 a% @' ]3 |7 v- W7 ]
    这里的关键在于 “its discrimination threshold is varied” ,因为对于一个二分类模型,它的输出结果其实是判断这个样本属于正样本的概率值,假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率7 I; M$ D5 P2 s2 `# x8 P3 o
    12.png % Q- u( h) l3 @% U* v: A% P8 k
    然后我们按照样本的score值,从大到小依次作为阈值,当样本score值大于等于阈值时则判定为正样本,否则为负样本。. r" L4 m5 j' V
    例如第一个阈值取0.9,这时只有id=1的样本被预测为正样本,其余都是负样本,此时TPR=1/1+9=0.1, FPR=0/0+10=0。还例如:对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。6 f. h" N8 A3 a0 L6 I3 d
      v2 [+ a" q6 w. g
    详细如下:
      `% ~  X1 m0 L/ f" y. v$ _ 13.png
    % ]$ z2 F. I! L; p* j由此我们便得到了一组(FPR,TPR)的值,可以绘制出ROC曲线:4 k& t, L+ a  j
    14.png 3 \& l% A- P: y  a% h4 ]4 y1 \9 X
    当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。5 @- R+ f6 ~( N0 [: S, f. a
    2 y/ E( Q9 E% Y7 C. A- Y
    4.2 AUC" P7 d8 k- x$ m
    15.png 0 V; O. }: Z% P" t
    AUC(Area Under the Curve)是指ROC曲线下的面积,使用AUC值作为评价标准是因为有时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。  C3 Q1 x5 J3 O, K/ H$ P" d$ `

    0 R9 S2 Z/ q$ f& G5 lAUC是ROC曲线下的面积。; x% C* l4 J5 S$ z- X
    AUC的取值为[0.5-1],0.5对应于对角线的“随机猜测模型”。
    ! y' ?: V. W5 M, |- t+ i9 o8 R' f: @AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。  R; m( m: l. ]) f4 z, P
    ! F% F: {( ^+ y( o6 F1 S
    从AUC判断分类器(预测模型)优劣的标准:% a- F/ v- M, p. A' U% H) V' A0 K
    0 L- Q$ j4 ~* i9 B' E4 F
    ) |. u( c) p) i5 \
    例如一个模型的AUC是0.7,其含义可以理解为:给定一个正样本和一个负样本,在70%的情况下,模型对正样本的打分(概率)高于对负样本的打分。% i. v9 C5 J! X# N

    4 k+ |4 Q* Q5 C) s+ |三种AUC值示例:
    ! t2 b2 O/ J9 i 16.png
    $ ^4 E- O6 _- @; O# X1 ^简单说:AUC值越大的分类器,正确率越高。+ @& m7 j8 H% F6 n0 A2 m3 b0 d
    + a) S5 N: @4 z! i
    那么为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?
    7 u+ ^) z! t, \! U4 g2 U因为机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。也就是说AUC越高说明阈值分割所能达到的准确率越高。5 t- Z$ I5 K2 K- v( L
    * }0 f- }! V% I- `5 d
    小练习:  i* x. W$ T; R8 t  n0 K1 f

    # Y* H9 V( ~7 i% h: L8 O) m以下说法正确的是( ABD)。【不定项】; ?  x% x+ c6 m
    A 随着阈值的降低,TPR与FPR都会增大。; e3 y  }) L, i7 J
    B TPR与召回率的值是相同的。
    $ H$ Z; X) q, g% x6 EC 如果AUC的值非常低,例如,0.1,则该模型效果很差,也很难调优。$ n& k; n8 K6 s( b* N, J2 L1 J, |
    D 无论是什么分类模型,ROC曲线一定会经过(0, 0)与(1,1)这两个点。7 t1 k; T  E/ r$ w6 g; b4 W  B
    4.3 ROC曲线程序示例+ [8 H7 F; W5 ]2 p$ {

    . }& I# o* O2 B  Z; W4 f2 ]8 w我们首先来看一个简单的程序示例,借此来说明sklearn库中,ROC曲线的实现细节。- y) N! `. |/ A% R# u3 Z
    % J. W2 L9 q9 S/ j
    4.3.1 roc_curve函数的参数/ V- d4 c! S  a, @( J
    import numpy as np
    " A# B7 s' n! _4 f5 Vfrom sklearn.metrics import roc_curve, auc, roc_auc_score
    , G5 l0 D, D# q5 c2 a( w  v% Q  }y = np.array([0, 0, 1, 1])
    ; \' B& b) [, A/ K# W' zscores = np.array([0.2, 0.4, 0.35, 0.8])1 g) Q* T& e6 W/ Z/ f- |3 ~) L
    # 返回ROC曲线相关值。返回FPR,TPR与阈值。当分值达到阈值时,将样本判定为正类,
    # h! R+ S# |1 D; d) W5 {# 否则判定为负类。
    - L) n2 J( \5 O: o- f, T: v; W7 j3 Q# y_true:二分类的标签值(真实值)。
    - V7 ~6 J5 {( _, [, O3 T  j# |+ t# y_score:每个标签(数据)的分值或概率值。当该值达到阈值时,判定为正例,否则判定为负例。
    6 v3 f% A8 `2 M: K! f# 在实际模型评估时,该值往往通过决策函数(decision_function)或者概率函数(predict_proba)获得。
    , ?$ G$ n- @: {# pos_label:指定正例的标签值。
    * J9 P0 Z; {+ S  K7 c+ pfpr, tpr, thresholds = roc_curve(y, scores, pos_label=1)
    % Y" a! f* z3 ]( T( G+ [. [print(f"fpr:{fpr}")
    " K7 e6 @& L" }8 t( D" V. |/ K# tprint(f"tpr:{tpr}")$ n) I% h1 `  {1 y
    print(f"thresholds:{thresholds}")
    4 i  W( d( X# k8 b# auc与roc_auc_score函数都可以返回AUC面积值,但是注意,两个函数的参数是不同的。
    ; k, K' Z* |* s5 Tprint("AUC面积值:", auc(fpr, tpr))
    0 `. @7 }3 F; s6 H- T* d' W( E' G& {print("AUC面积得分:", roc_auc_score(y_true=y, y_score=scores))
    0 R& t% P5 j% f' x0 h/ J#### 3.3.2 roc_curve函数的返回值- [3 {6 N* f( i8 M# m) A

      C' h# e; i: ]( U. x结果:
    5 t$ X9 o; V- H& ? 17.png 1.8 是怎么来的?: \- {$ P2 n' \1 ?) R, `
    1.8是阈值中最大值+1(0.8+1)得来的。为什么这么算?因为要使得最开始得到的所有阈值都不会超过这个值,才能过(0,0)和(1,1)这两个点。
      A$ [/ B. b- l( a& l8 t4 o- J$ W- v
    4.3.2 roc_curve函数的返回值) Y  a0 v! l% ?+ ]
    ' T. U1 i$ |/ n/ d* g: H
    roc_curve函数具有3个返回值:) N" s- i8 u1 o& F4 t* I7 G

    # D! B9 p2 ]9 S6 a; Bfpr 对应每个阈值(thresholds)下的fpr值。: U+ x# p; f6 W+ X& n+ l
    tpr 对应每个阈值(thresholds)下的tpr值。: _4 |' P! c9 |3 o- w2 }) N
    thresholds 阈值。  o# Y2 K5 J+ }1 B/ y
    roc_curve函数会从y_score参数中,选择部分元素作为阈值(选择哪些元素属于实现细节,会根据sklearn版本的不同,也可能会有所差异。),然后进行降序排列,作为roc_curve函数的第3个返回值(thresholds)。同时,根据thresholds中的每个元素(阈值),分别计算fpr与tpr。
    9 p. ?. R# W: B8 |' oiris = load_iris()
    5 h" b/ p1 O0 e0 N# g2 I" FX, y = iris.data, iris.target, a+ f4 t; c- h; w, w1 d6 r+ M/ f( W5 T
    X = X[y != 0, 2:]
    ) N$ L( f! x4 W  z8 Zy = y[y != 0]# I1 d* B+ Y1 W
    y[y == 1] = 0! |- ]  b; @, n
    y[y == 2] = 1
    1 `- Z+ L: q. o2 X0 ZX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25,; L- ?3 s( @( ]! w5 N  l8 f9 R  D: S
    random_state=2)8 z0 o9 g3 D9 O: w
    # lr = LogisticRegression(multi_class="multinomial", solver="lbfgs")
    4 t6 R. c8 E" B1 olr = LogisticRegression(multi_class="ovr", solver="liblinear")# R, b1 l5 C/ ]
    lr.fit(X_train, y_train)4 Q) {7 T* u5 p! w+ E
    # 使用概率来作为每个样本数据的分值。" r" z; x/ G/ x" [/ B$ o# M4 X+ r
    probo = lr.predict_proba(X_test)$ z. k. ]5 A- M' d) z9 M5 j" I  @$ E6 l/ b
    fpr, tpr, thresholds = roc_curve(y_true=y_test, y_score=probo[:, 1],$ h7 M+ a6 N" f' Z: ~. d0 @
    pos_label=1); s* P( p8 c) L% z" o# F; \2 p! l
    display(probo[:, 1])7 r: G1 @# X$ G& A0 ]. O9 m
    # 从概率中,选择若干元素作为阈值,每个阈值下,都可以确定一个tpr与fpr,
    ! O; ~; L2 }: Y; I, [6 c0 d$ i# 每个tpr与fpr对应ROC曲线上的一个点,将这些点进行连接,就可以绘制ROC曲线。- _- X0 H* _& x2 V5 U4 b
    display(thresholds)' Z7 W; c" H5 M0 u
    4 G6 l% v8 o- y
    结果:
    0 l0 E8 X( Z! z* e& t# ^ 18.png 0 `3 R. c) U9 [. K0 n

    4 v0 Y4 R3 X6 `: F
    ; _3 A2 w" M+ b% ~# 随着阈值的不断降低,fpr与tpr都在不断的增大。
    & r5 ~$ t9 d" efpr, tpr" b- n# d$ W( x. }$ Q! w. X0 T3 q

    / p6 [; M- L7 i+ o/ F( l结果:( o. P7 }7 _" I2 z% z- P" Q
    19.png & z& U8 D* n7 L7 g
    8 V3 K0 c$ ~6 h0 T
    4.3.3 绘制ROC曲线
      Y( v; V" V+ N0 f有了fpr与tpr的值,绘制ROC曲线是非常容易的,只不过是最简单的一个plot而已。
    ' D6 c; X3 e+ t( H. H0 Rplt.figure(figsize=(10, 6))
    . Q" i. O( q4 v; S, aplt.plot(fpr, tpr, marker="o", label="ROC曲线"), F$ Z0 w3 F: ?6 N. `3 G  [
    plt.plot([0,1], [0,1], lw=2, ls="--", label="随机猜测")- F. X& E9 K; V6 J
    plt.plot([0, 0, 1], [0, 1, 1], lw=2, ls="-.", label="完美预测")
    1 I* P3 T# i5 }plt.xlim(-0.01, 1.02). v1 N0 ~0 d. n3 H' G
    plt.ylim(-0.01, 1.02)- g8 Q# ^$ q% z" F
    plt.xticks(np.arange(0, 1.1, 0.1))
    4 Z. x5 J% m& y. G, m& K! `  ~plt.yticks(np.arange(0, 1.1, 0.1))
    * k! N0 ~& L+ r5 Z! {2 p  Qplt.xlabel("False Positive Rate(FPR)")
    . u7 R7 G. W( I  Pplt.ylabel("True Positive Rate(TPR)")& b$ O7 v3 x8 _0 @
    plt.grid()/ i( m6 v5 S) w' ?9 n9 d9 D. Z
    plt.title(f"ROC曲线-AUC值为{auc(fpr, tpr):.2f}")
    * j; p% M6 K; Jplt.legend()9 U* f1 q& W7 \: O
    plt.show()9 ]" F0 }! M, t3 ?' h8 Y% b% G
    20.png
    9 R; D% r  t/ C7 t% r
    9 g/ D  h- ^7 c0 |8 M6 \5、总结" w2 f9 R4 Q7 R- _6 P: l

    4 j4 `4 W' j$ X9 V$ h混淆矩阵的含义。
    7 N; s0 A2 ~7 I( [$ D正确率,精准率,召回率与调和平均值F1的含义。
    , S/ l4 g) c3 s, `7 ]' r+ K% JROC与AUC。
    & A' K8 s4 y; k' H/ B, }9 K; z# P2 v& r
    参考资料:9 V4 e+ {* p: N2 |" o8 R. O" V/ N
    1、https://blog.csdn.net/zuolixiangfisher/article/details/81328297' e: T7 P: O& S+ W! e
    2、https://www.jianshu.com/p/2feb00839154/ L  n) i$ o1 k7 n# {! }2 ]! }* v
    3、https://www.cnblogs.com/kamekin/p/9788730.html
    $ b) {( I! ^6 ^4 b4、https://www.jianshu.com/p/c61ae11cc5f69 p, u) X$ u+ \$ C- m1 E$ I) |
    ————————————————2 D" g6 Y7 i% Y: @' i! o" p8 S/ A
    版权声明:本文为CSDN博主「糖潮丽子~辣丽」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。& w. E. i/ ], X* Q8 M5 b. d) G  P
    原文链接:https://blog.csdn.net/qq_39783601/article/details/105600700
    ! @4 w' B7 C0 V3 D, g1 ^! Q* ^- U# m* C" ]3 r

    ) s: Q3 u) k# o5 f! ?
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信

    0

    主题

    1

    听众

    11

    积分

    升级  6.32%

  • TA的每日心情
    开心
    2020-4-19 10:15
  • 签到天数: 2 天

    [LV.1]初来乍到

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 11:01 , Processed in 1.034602 second(s), 58 queries .

    回顶部