QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2682|回复: 1
打印 上一主题 下一主题

详细讲解分类模型评估

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-19 11:53 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    6 @7 [$ y: [, Q, p( {
    详细讲解分类模型评估分类模型评估+ v. J$ X+ m! _; r7 j1 z  W

    . Q- X: f) C4 i% U; `$ w4 V1、分类模型
    9 t% g0 N. a/ {( L/ l8 I3 G! |主题:如何对分类模型进行评估
    ( }, T$ m" ]" t  p) N0 i! |目标:, q5 \) Z7 v2 E+ w
    2、混淆矩阵
    " Z8 @+ i+ J* l7 C$ }5 r3、评估指标
    , B) L$ M6 m0 ?3.1 正确率: @, Q2 F/ U6 `
    3.2 精准率
    9 }  U: _' j- K  Q) d4 [% {3.3 召回率
    ( X4 w* \' }1 d8 M+ F7 p3.4 调和平均值F1
    / u# l) b1 F3 D4 D6 ]& S( w2 R4、ROC和AUC- p# z( Y' k* P
    4.1 ROC曲线' ]; K( a& ~% u7 m3 I# P$ C
    如何画ROC曲线:4 N% Z! o8 A1 G+ \
    4.2 AUC2 N9 r8 s; N" ?0 ?
    4.3 ROC曲线程序示例, t% X3 T2 {8 O5 ]. m
    4.3.1 roc_curve函数的参数
      m, X! A& m" ^) t# c5 k4.3.2 roc_curve函数的返回值
    0 V) j5 I) L% T9 O4 W' i6 R4.3.3 绘制ROC曲线; }8 [% t. ], ^3 ~' s
    5、总结
    ( P: l" @$ z2 a1、分类模型
    $ N  s; m: Q! y  K
    2 T7 W9 m& G) Z# o3 t# n. H分类问题在我们日常生活中处处可见,比如我们对帅哥的分类,可能对帅哥分为非常帅和一般帅。比如我们平时刷淘宝,淘宝根据我们平时的喜好给我们推送产品,那我们就会把产品分为感兴趣和不感兴趣两类。) ~3 q, c1 K8 o# s9 F3 n
    上述所说的问题就是典型的分类问题,确切的说其实就是二分类问题。
    ) t: Q8 ?" L/ l! z9 M能够解决这些二分类问题的数学模型就被称为二分类模型。
    $ ?. I9 Y8 }& U用数学的方式表达就是,给定自变量X,代入到我们的分类模型F,会输出因变量y,y的取值为0或1,其中0代表负样本(一般帅的帅哥、不感兴趣的推送),1代表正样本(非常帅气的帅哥、感兴趣的推送)。1 L$ j/ H' b5 i" j/ x3 M

    / S; F2 J$ G; K4 n* M  I% l主题:如何对分类模型进行评估
    ' D) N! j0 X: o( d4 R3 Y6 e: X2 G9 x% }7 I3 c' ]
    目标:
    5 N5 t( g8 |1 H/ ?1 P0 m+ M; |
    + l3 ~8 o  R- q9 V9 T! i: X能够熟知混淆矩阵的含义。
    4 e/ F, y# c! H1 j" G: v能够使用各种指标对分类模型进行评估。
    2 m: |6 I$ d2 V1 r2 K, J6 u( {: H能够独立绘制ROC曲线,并熟悉该曲线细节。9 v5 M1 {# T* q0 e+ g, B, p( j7 z
    能够对样本不均衡进行处理(扩展内容)。
    * |5 ~8 ?6 b$ D% ^% O, ^4 F2、混淆矩阵2 n( S! K' e7 Z: ^& |0 O

    3 j) A. h" i6 V混淆矩阵,可以用来评估模型分类的正确性。
    " ?! N9 [3 a! U该矩阵是一个方阵,矩阵的数值用来表示分类器预测的结果,包括真正例(True Positive),假正例(False Positive),真负例(True Negative),假负例(False Negative)。
    0 s. U/ G2 G: c 1.png & |' Q$ p% K" S( X/ M3 u" ?
    矩阵的形状是2 x 2,其中, - 矩阵的左上角表示,预测值为1,实际值为1(True Positive,简称TP); - 右上角表示预测值为1,实际值为0(False Positive,简称FP); - 左下角表示预测值为0,实际值为1(False Negative,简称FN); - 右下角表示预测值为0,实际值为0(True Negative,简称TN);. L% U) P8 r; o) X) N) a' u6 [' N) H9 p
    6 O& ]7 r( H, N7 _' _9 T' a: w
    真负例(TN)+ 假正例(FP)——每个类别真实存在的负例的数量
    4 B6 a1 }+ |# M+ p, c假负例(FN)+ 真正例(TP)——每个类别真实存在的正例的数量7 R5 G$ g5 Y  I( s8 z" b# |; Y1 H4 n
    真负例(TN)+ 假负例(FN)——每个类别预测的真负例数量' Y0 c! a" t4 U7 g1 r
    假正例(FP)+ 真正例(TP)——每个类别预测的真正例数量% E, M. v% C( j/ T* m4 P
    其中:
    ( L8 A3 E4 ]4 o; d( F% P9 Q8 M, O8 u. l0 X1 a; S
    TP:真正例,实际为正预测为正;; k2 Y; |/ b6 s& h. s/ n) _
    FP:假正例,实际为负但预测为正;
    ) g! X, {) {: O( vFN:假反例,实际为正但预测为负;
    . G* l0 ~0 \! H( H* dTN:真反例,实际为负预测为负; i& A5 u  c$ g
    接下来,我们通过数据来看下鸢尾花的混淆矩阵:
    : A# J2 h" o7 C' Aimport numpy as np
    / y" d0 D: j' F! \from sklearn.datasets import load_iris
    & `, K5 d0 _# p. o! kfrom sklearn.linear_model import LogisticRegression
    + Q$ Q  k; V6 x! `& T: |! Z2 C1 sfrom sklearn.model_selection import train_test_split: R3 l( m% \: }& w) L9 ]
    # 混淆矩阵% M  }4 G$ E( |4 g3 I
    from sklearn.metrics import confusion_matrix
    - W: `* ~8 z( E+ `" B: Yimport matplotlib.pyplot as plt
    & j- m* Q. G; @3 J. }8 ~' b' a% Cimport warnings
    3 ^) B- g) ^  \! |. b6 m. ?
    ' M4 L9 @  |. \8 kplt.rcParams["font.family"] = "SimHei"- e. D5 Q( _7 x" h( K
    plt.rcParams["axes.unicode_minus"] = False
    . k0 C$ W, d+ {( Q) N  Dplt.rcParams["font.size"] = 12
    " b0 e9 @4 H9 {$ J- uwarnings.filterwarnings("ignore")& Q6 O7 [7 }  e2 O2 u) _2 L  }# o. O

    3 c) I; \2 @) S( O$ o- H/ D" E- hiris = load_iris()  #导入鸢尾花数据集
    9 F& F) F* a* D& n" Z% hX, y = iris.data, iris.target% S; K6 [8 S. H% S7 e1 D
    X = X[y != 0, 2:]
    + d/ z; a8 h# l7 S. zy = y[y != 0]& p) c+ m  o  v; n  Z$ ]: G. H
    y[y == 1] = 0
    ; `1 q  x+ d. [& Y! Uy[y == 2] = 1% m: z8 ~/ ]3 j' p3 K$ G
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)% J  y: E; E' u
    lr = LogisticRegression()  #使用逻辑回归( F" [+ ]' }, K: {7 ~' ]
    lr.fit(X_train, y_train)
    * q  x. g: j. {y_hat = lr.predict(X_test)
    ; C9 Z1 ]! L( v0 n4 {( N# 根据传入的真实值与预测值,创建混淆矩阵。6 J% U# Y4 Q+ ~
    matrix = confusion_matrix(y_true=y_test, y_pred=y_hat)  g1 R- S! t0 n5 l
    print(matrix)
    # W. Q! E; e* n% S& u  C0 a. a1 ^
    . ]/ O6 d4 _" Y% _! y
    ' @$ M' |) f2 S9 ?: l+ d4 |, W输出结果:4 H6 U$ p( `  ~  U) y3 O
    2.png
    2 {* r: ~# B- U- L; N7 r我们还可以对其进行可视化操作:- _0 ]2 m/ k, t, K+ K
    mat = plt.matshow(matrix, cmap=plt.cm.Blues, alpha=0.5)    #cmap 指定颜色图色系,alpha透明度
    8 @1 }2 ^8 {9 S& qlabel = ["负例", "正例"]% \7 n8 u! X5 I5 V  q
    ax = plt.gca()
    0 J: U/ Q8 ~) c, Sax.set(xticks=np.arange(matrix.shape[1]), yticks=np.arange(matrix.shape[0]),
    & l( G, V( E% C7 ^/ T: n        xticklabels=label, yticklabels=label, title="混淆矩阵可视化\n",& ?, D& C, f: b/ J: Z/ `8 t, U
            ylabel="真实值", xlabel="预测值")* |3 v0 ]" N% \) ^! y! Q
    for i in range(matrix.shape[0]):
    / ^: c$ n+ Q: c' A    for j in range(matrix.shape[1]):; ^( x( k# W: j$ h
            plt.text(x=j, y=i, s=matrix[i, j], va="center", ha="center")
    ; ?+ B& Z( ^* |2 F8 `1 Ra, b = ax.get_ylim()3 x% H8 q% C$ R2 w9 ?. \4 O1 z
    ax.set_ylim(a + 0.5, b - 0.5)2 L6 X" m$ b- u/ H6 k' C- }; V
    plt.show()
    3 q' X, W% y; n" o5 t
    / l3 D7 l7 x, o8 _" y7 N1 X
    + }+ C9 {( [; I! u0 F8 O代码解析:, M" ^0 y# W. Z8 D  l( u; h
    matshow( ) 绘制矩阵,alpha 透明度; h! ]8 _! m% W* _
    结果:
    5 W0 @7 k& M6 F 3.png
    9 p5 M* W! H: ^1 W8 l练习:
    ( p: h& x5 E; o
    2 N! U- m; g8 ]7 r9 t4 I/ \关于混淆矩阵,说法正确的是( ABCD)。【不定项】
    $ W5 h. @- z) Y* X0 B0 ]$ p: [  d, sA 混淆矩阵可以用来评估分类模型。  V, w$ T3 a/ ^( }& D4 j
    B 混淆矩阵中,TP与TN的数值越大,则分类的效果越好。+ R: s0 l' u; {" o
    C 混淆矩阵一行元素的和代表某个类别的实际数量。, I' y* E* ^/ s% J* x
    D 混淆矩阵一列元素的和代表某个类别的预测数量。
    8 [% H( i/ D" H# r. I0 d* n3、评估指标( u! n% V/ W4 F* h5 j4 ^0 N4 V
    6 e  r' w# `0 W
    对于分类模型,我们可以提取如下的评估指标:
    3 B% I# o/ c6 S! d1 U
    / Z! s1 u2 f9 f& g正确率(accuracy)5 h+ A6 W$ F9 h- h+ D6 n
    精准率(precision)
    : L( A/ M7 Q" w/ k召回率(recall)  z+ v7 G% q8 F% Q( M' p, X
    F1(调和平均值)
    & M! p; J+ G& L) \3.1 正确率7 W3 {0 N$ Z" V! ]0 r4 O4 k, p3 a
    4.png 4 y( {, l: N$ Z
    正确率(准确率)定义如下:- ?- e! l& I! x+ n& N
    衡量所有样本被分类准确的比例。9 E3 ?! t7 b( N2 m; ~6 k8 D# E
    Accuracy = (TP+TN) / (TP+FP+TN+FN)
    , w) H' i# B9 ^& q7 y8 N1 [; f! e; z7 r& C/ B& Y4 t( {
    预测正确的数量除以总数量。: I! R! K$ W! f# t3 P: W: z

    ) C8 g4 r0 F* v3.2 精准率' h4 l, g. P  [! D; @* w# a
    5.png / M# f$ @* O- Z+ r- N/ O7 R2 s
    查准率(精准率)定义如下:
    & k  Y/ k& J( e3 W3 ?衡量正样本的分类准确率,就是说被预测为正样本的样本有多少是真的正样本。
    ) e! @% M. c. `3 i8 ~, g, xPrecision = TP / (TP+FP)
    ( p) T% Q& ?; a
    2 D; F) [3 l* N# M精准率只考虑正例。+ B- C$ P, `6 P& p8 u9 h

    : M2 l  Q; T5 g0 @% K5 h/ z. U! G% |3.3 召回率; u# I! ]* i* j( L
    6.png
    8 o* }5 z0 @) ~1 @2 ?2 O$ Z$ z' B查全率(召回率)定义如下:/ B6 M) A; u4 \) r3 g- \
    表示分类正确的正样本占总的正样本的比例。
    9 I8 d1 q- D/ {. N' Y9 vRecall = TP / (TP+FN)
    0 @" u% x) A" a1 L0 a/ Z; o3 d! P# ^
    " E  L& K6 O1 i
    3.4 调和平均值F1
    & n% M. K- t9 A' {3 Y8 C( g8 B) T3 c 7.png 7 B. U/ v: `% a: G  N* K1 d
    F值(F1-scores)调和平均值F1定义如下:
    & s: z7 ]  m3 L  ?# A8 d3 z精确率和召回率的调和平均。
    * H$ ]; X$ p- @, b精准率Precision和召回率Recall加权调和平均数,并假设两者一样重要。7 c* t8 N5 _& L( s8 R4 ~! \' @% b
    - F* @; j3 L+ B' i0 e, b
    F1-score = (2Recall*Precision) / (Recall + Precision). R% m- ?9 I8 `. A  E
      T; {9 F( k0 D& Y
    精准率和召回率是一对矛盾的度量。一般来说,精准率高时,召回率往往偏低;而召回率高时,精准率往往偏低。通常只有在一些简单任务中,才可能使二者都很高。
    * y2 ~" r" e) Z; t4 S( w最好的分类器当然是准确率、精确率,召回率都为1,但实际场景中几乎是不可能的,而且精确率和召回率往往会相互影响,一个高了另一个会有所下降,因此在实际应用中要根据具体需求做适当平衡。$ ^3 Q3 q) B# h( W
    让我们做个练习加深下印象吧!
    7 _5 k3 c: s/ Y6 X2 Q) M- i. t1 m, B  K
    以下说法正确的是( C )。& f& M5 L: I# G# s8 G2 e
    A 使用正确率去评估一个分类模型,效果会比精准率更好。
    / I$ g( ]0 Z9 ^, a* |B 使用精准率去评估一个分类模型,效果会比召回率更好。( Z+ f) Q1 o; t! v1 ?: |; p/ Z" Y
    C 精准率与召回率通常要联合使用。
    8 w+ ?+ W0 D+ o/ LD 精准率与召回率如果有一个值较低,F1值也可能会较高。) N% {9 A& u7 E# k* y$ ?5 E+ \( _( z
    如果精准率和召回率我们只能选择重视一个,我们会更看重( C )。
    * R1 G& ]) Z, \, o* _0 PA 精准率。
    * ~9 ^; ]  D: t  a  G1 VB 召回率。$ d9 o0 ~4 G/ ^' `: c# \2 Z
    C 具体场景不同,重视谁也会不同。" U1 B3 j; R  h& U$ i
    接下来我们通过程序来说明下:/ v4 |% \9 n9 Z, @* @2 x
    from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score" R& m: q$ q7 q" M: n/ [6 \& ^
    * x: m  A5 A3 ?3 N9 q
    print("正确率:", accuracy_score(y_test, y_hat)); D1 A9 U+ {4 j4 E4 ]3 D
    # 默认将1类别视为正例,可以通过pos_label参数指定。9 e* M; [2 `- X! O" }+ ]* `
    print("精准率:", precision_score(y_test, y_hat))( O* ]/ T1 D+ b+ x: Q. P3 f
    print("召回率:", recall_score(y_test, y_hat))& o9 T( I! p% w0 Z2 B; E' X
    print("F1调和平均值:", f1_score(y_test, y_hat))
    $ v( ?# {& X2 O% Q- T, N/ y# 我们也可以调用逻辑回归模型对象的score方法,也能获取正确率。
    / H. _2 |( v% ]' F, O# 但是需要注意,score方法与f1_score函数的参数是不同的。
    5 F  i7 Q6 `- Pprint("score方法计算正确率:", lr.score(X_test, y_test))
      f# I/ p0 X3 M: a- P3 `. g; `8 I9 ~# z  Z5 h  ^& X

    5 u  q1 P, q, G结果:
    0 w& B/ I3 D) D7 _2 [( B$ K 8.png 2 \, C% ~- x4 z) x. ]$ Z
    除此之外,我们也可以使用classification_report函数来查看模型的分类统计信息,该方法会返回字符串类型,给出相关的分类指标评估值。* s, ?4 i+ `) x+ q" m3 A
    from sklearn.metrics import classification_report$ \/ ]/ n! G: |$ r7 N& L2 O

    9 t! s6 V3 v9 L: @" Lprint(classification_report(y_true=y_test, y_pred=y_hat))) L4 Z4 ^4 Q5 h! S' Z
    6 M* w5 n! r& e/ X/ L) D, C  i
    4 a' Z* s8 D% s2 m' T
    结果:& P  v+ b' z- L+ w/ p/ E2 Q
    9.png + O  J0 q+ U1 C" J. k" E( `0 W) e
    . e! t: c$ O8 M3 y8 b' U# {
    练习:8 J' X% c# w0 |$ \
    1 T" }- E- p! |: [8 w
    如果使用精准率与召回率评估二分类模型时,我们应该将哪个类别设置为正例? (B)# s, A# e0 R- c9 E5 q4 o8 G  L) t$ {
    A 随意
    ! e. V. |+ o1 f, A; ]3 iB 关注的类别
    , A( H3 L0 Q2 n" wC 不关注的类别
    9 y& M, g) y( j) R: A1 j4、ROC和AUC
    $ W( Q( k. u% k8 [% [  ]/ V3 s. I  s  h3 I5 b
    ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。( F) G- ?$ f7 N' R3 X& b/ C9 d

    6 v7 x# i2 y) B  k1 M4 O$ u4.1 ROC曲线
    ' L% W4 S6 c/ B/ I! m 10.png ( @3 M1 V7 i" n( U7 s
    ROC曲线(Receiver Operating Characteristic——受试者工作特征曲线),使用图形来描述二分类系统的性能表现。图形的纵轴为真正例率(TPR——True Positive Rate),横轴为假正例率(FPR——False Positive Rate)。其中,真正例率与假正例率定义为:( l4 n* }1 ]5 h0 W0 r) q: v
    8 ^5 P6 C6 A; Z0 `$ F
    ROC曲线通过真正例率(TPR)与假正例率(FPR)两项指标,可以用来评估分类模型的性能。真正例率与假正例率可以通过移动分类模型的阈值而进行计算。随着阈值的改变,真正例率与假负例率也会随之发生改变,进而就可以在ROC曲线坐标上,形成多个点。/ E/ P+ m. P5 l. L- e

    4 _7 {/ ]: F6 ~ROC曲线反映了FPR与TPR之间权衡的情况,通俗来说,即在TPR随着FPR递增的情况下,谁增长得更快,快多少的问题。TPR增长得越快,曲线越往上凸,模型的分类性能就越好。
    2 _% s7 d: q6 D' @8 u3 e6 ]3 c# h% z7 [, l8 @
    ROC曲线如果为对角线,则可以理解为随机猜测。如果在对角线以下,则其性能比随机猜测还要差。如果ROC曲线真正例率为1,假正例率为0,即曲线为与构成的折线,则此时的分类器是最完美的。. ~* o5 w8 q' y% \* H% i' X8 {

    3 R! @9 m. m$ o5 j$ k2 K8 l下图就是ROC曲线的一个示意图:
    ; n% D5 _4 T! ^+ m- T0 ]9 X 11.png 8 W( b( c. X( J% o+ C8 j
    ROC曲线横坐标是FPR(False Positive Rate),纵坐标是TPR(True Positive Rate). O" ~5 E) C7 y, e* S
    接下来我们考虑ROC曲线图中的四个点和一条线。8 ]+ |" ]9 |( @7 g

    5 ~; Y6 Q- F( p第一个点,(0,1),即FPR=0, TPR=1,这意味着FN(false negative)=0,并且FP(false
    * o% r) O2 @1 d8 ~) Q, O! A/ spositive)=0。这是一个完美的分类器,它将所有的样本都正确分类。
    - `, }0 j/ S! P, Z( X- Z7 E第二个点,(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。& f3 O9 V3 L* N0 O
    第三个点,(0,0),即FPR=TPR=0,即FP(false positive)=TP(true
    $ T1 g0 _' M* h9 H1 t1 o  W% V0 T, Opositive)=0,可以发现该分类器预测所有的样本都为负样本(negative)。4 a9 S4 V: L( ~0 i. E: G( J: b: _  b
    第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。1 Q* o: _+ t8 b% N
    如何画ROC曲线:
    3 B' v: g7 {$ D* A( ~$ E5 Q
    0 s5 `1 ~" b/ y# w1 U1 R对于一个特定的分类器和测试数据集,显然只能得到一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下wikipedia上对ROC曲线的定义:
    ' J3 l4 ]8 \) A, h0 v" J3 S- F8 [/ C! ~1 C1 S
    A receiver operating characteristic curve, i.e. ROC curve, is a
    ) J1 N% k. [5 p* ^& M! Z, Ugraphical plot that illustrates the diagnostic ability of a binary
    + X1 ~. M6 T; a' d2 i7 @4 Uclassifier system as its discrimination threshold is varied.
    1 }2 T5 p, `' a# {( U译:ROC曲线是由一系列因区分阈值变化产生的点,用于描述二分类模型的判断能力
    ! |8 o3 T* B& H9 X# A. _1 ]1 _! g这里的关键在于 “its discrimination threshold is varied” ,因为对于一个二分类模型,它的输出结果其实是判断这个样本属于正样本的概率值,假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率
    / A0 J, w6 Z: \' {8 @3 r 12.png
      T) B$ `7 y0 J+ u. L5 r然后我们按照样本的score值,从大到小依次作为阈值,当样本score值大于等于阈值时则判定为正样本,否则为负样本。* ~3 i2 W( f: q' s4 }
    例如第一个阈值取0.9,这时只有id=1的样本被预测为正样本,其余都是负样本,此时TPR=1/1+9=0.1, FPR=0/0+10=0。还例如:对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。
    : ]% h* ^" X2 P, m; U
    & o+ P# a; v, o6 |1 L详细如下:! v2 X  Y4 G2 ?1 l" U
    13.png
    + g! S( F; j, Z+ M7 S* @& }7 B8 b由此我们便得到了一组(FPR,TPR)的值,可以绘制出ROC曲线:
    3 q* d; Q& A  |! o7 T  F 14.png
    ; o) N3 L5 v; }8 S- R4 G5 Z* U% p2 ~1 a当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。
    ; p# A3 |1 a- l/ C% ?* v$ V" u& J' W
    ' i- A  X& L! `& A( I: W( a- L4.2 AUC
    3 ]6 ^' _, Q: r 15.png
    " M0 ]) S, p- }( d: b+ x8 B# |AUC(Area Under the Curve)是指ROC曲线下的面积,使用AUC值作为评价标准是因为有时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。1 Q& ^& U# z4 n0 [+ c* {
    + c& z- ~+ n7 l% b+ i6 H. F6 x+ G
    AUC是ROC曲线下的面积。
    + [- a1 M- Q) G9 X! TAUC的取值为[0.5-1],0.5对应于对角线的“随机猜测模型”。
    * k3 `  h" ~2 Z& q/ n; XAUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。
      W5 v& V6 m# i6 ^7 e- `+ l; y
    5 f' b4 z+ y/ r. F% Z从AUC判断分类器(预测模型)优劣的标准:- i5 Y. |+ l: C% Z

    & b- t' U$ N( M' v* ]; b  c7 x8 w  j* p  ~9 r) {
    例如一个模型的AUC是0.7,其含义可以理解为:给定一个正样本和一个负样本,在70%的情况下,模型对正样本的打分(概率)高于对负样本的打分。
    6 V: c* }6 j* {/ k
    2 r0 H* ?/ U. u+ e0 t3 }, E三种AUC值示例:
    * ^# \7 V# A0 `! ~8 l7 C 16.png $ A8 d' J  E4 A5 U+ c# [
    简单说:AUC值越大的分类器,正确率越高。
    , h: N: B+ O; O; l; s: T
    & ?, q9 k% P4 S3 i2 q: a2 t7 X那么为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?
    * b9 e9 y( J' ?因为机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。也就是说AUC越高说明阈值分割所能达到的准确率越高。
    / l+ n4 ?0 q7 Y3 m. O; f- k$ [5 Q/ K2 [# t
    小练习:+ c% [) B' Z+ I. [' w4 i
    + s8 Y$ v9 K! x0 m$ @
    以下说法正确的是( ABD)。【不定项】( A. _+ i: [( ?) x
    A 随着阈值的降低,TPR与FPR都会增大。
    ! k6 M- u- J% Q# _/ ]) p* M# SB TPR与召回率的值是相同的。4 B- k" v9 r3 j/ V# ?
    C 如果AUC的值非常低,例如,0.1,则该模型效果很差,也很难调优。9 k) _7 M! n" `. t' s6 h( _" `
    D 无论是什么分类模型,ROC曲线一定会经过(0, 0)与(1,1)这两个点。- X- e. X1 S7 M: @7 u# \" ?8 u
    4.3 ROC曲线程序示例
    ! l: @- s; R% Q6 h# Q/ P! J! g# l/ c9 F& c6 E% ~* Y
    我们首先来看一个简单的程序示例,借此来说明sklearn库中,ROC曲线的实现细节。
    ) N5 K1 n5 |' A& @4 h9 I
    8 T+ M- E& H# C$ {8 j4.3.1 roc_curve函数的参数
    ! f2 r3 i2 ]; Q* F6 T/ Fimport numpy as np
    * ^) \; h0 S" Z& D) d. Wfrom sklearn.metrics import roc_curve, auc, roc_auc_score
    , _: L: c4 z4 ~+ d, {" _y = np.array([0, 0, 1, 1])/ k/ ~& h8 N: e9 m8 a6 a
    scores = np.array([0.2, 0.4, 0.35, 0.8])
    8 q9 T' A: `  m" j: p+ z) w- Y# 返回ROC曲线相关值。返回FPR,TPR与阈值。当分值达到阈值时,将样本判定为正类,6 L+ y8 c8 {4 Z: }
    # 否则判定为负类。
    7 U& h2 O. F8 f! T9 E# y_true:二分类的标签值(真实值)。4 b0 @6 I: w# q3 W3 e
    # y_score:每个标签(数据)的分值或概率值。当该值达到阈值时,判定为正例,否则判定为负例。; U$ v4 g$ T2 h3 o
    # 在实际模型评估时,该值往往通过决策函数(decision_function)或者概率函数(predict_proba)获得。
    9 V# N( K! D  h# pos_label:指定正例的标签值。
    ) G' G* N+ c: o0 Hfpr, tpr, thresholds = roc_curve(y, scores, pos_label=1)
    ( @8 U, E9 ]' h5 H  g+ h) p2 `print(f"fpr:{fpr}")
    3 s# Q1 _" c% O3 Uprint(f"tpr:{tpr}")
    ' T6 S+ ?8 L% Rprint(f"thresholds:{thresholds}")
    . J4 {5 H* N# M- Q# auc与roc_auc_score函数都可以返回AUC面积值,但是注意,两个函数的参数是不同的。- C$ r" y* E# K) F
    print("AUC面积值:", auc(fpr, tpr))
    ! k7 O; S/ m9 C, x( [, N: Q7 C/ z0 ?print("AUC面积得分:", roc_auc_score(y_true=y, y_score=scores))
    : u5 r! {% J% I% w/ ~#### 3.3.2 roc_curve函数的返回值
    4 C) k& I# v) |% B7 E7 l, R: G1 l
    ) k$ F5 n! [2 d- }结果:/ ~$ Q7 S9 h8 p& e3 ~/ [3 D8 K$ F
    17.png 1.8 是怎么来的?
    ( W3 i: v1 o* i8 Y1.8是阈值中最大值+1(0.8+1)得来的。为什么这么算?因为要使得最开始得到的所有阈值都不会超过这个值,才能过(0,0)和(1,1)这两个点。$ `2 b7 {, F: l, Z! G7 v
    9 o  {. z' K3 J/ n3 h( W
    4.3.2 roc_curve函数的返回值( i2 N# T+ L  M, T* ?. U

    + G7 f7 o- l8 x' K- Nroc_curve函数具有3个返回值:% E- b- o; Q! f  P! R( H+ P5 V
    # I) C% v7 m* {1 I. r, c7 \
    fpr 对应每个阈值(thresholds)下的fpr值。9 K4 k1 a0 S$ n9 B. a& ^  ~
    tpr 对应每个阈值(thresholds)下的tpr值。
    0 W, t! ]: c/ ~2 }+ Mthresholds 阈值。
    ) A, \/ M4 H+ q+ droc_curve函数会从y_score参数中,选择部分元素作为阈值(选择哪些元素属于实现细节,会根据sklearn版本的不同,也可能会有所差异。),然后进行降序排列,作为roc_curve函数的第3个返回值(thresholds)。同时,根据thresholds中的每个元素(阈值),分别计算fpr与tpr。; G+ q8 x' J. ~1 ^8 F0 I( P
    iris = load_iris()( b" y) ]5 C* ]$ r/ R; c) D; s
    X, y = iris.data, iris.target. a' X' {3 P# O( @# o& w
    X = X[y != 0, 2:]  Y3 H, j5 L+ _
    y = y[y != 0]
    . g6 A( ^, L# E) O8 M* N; M/ ^y[y == 1] = 01 `% L3 t2 r; v' h
    y[y == 2] = 1) n6 K2 q" H! r9 ~
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25,' H5 [( Z2 Y9 G9 \; N( l: c# y* g
    random_state=2)# H" i: s/ S" @; \0 Y, ~8 `5 @; n4 u
    # lr = LogisticRegression(multi_class="multinomial", solver="lbfgs")
    ' C1 [, t0 G5 |lr = LogisticRegression(multi_class="ovr", solver="liblinear")
    ; X6 ]0 Y! \: ^3 ~$ j! jlr.fit(X_train, y_train)
    + k# u( s& m3 G. n& V  [# 使用概率来作为每个样本数据的分值。
    $ F# l( S5 q% g5 Z5 i* vprobo = lr.predict_proba(X_test)
    / d7 o) A* d, s1 E- j& yfpr, tpr, thresholds = roc_curve(y_true=y_test, y_score=probo[:, 1],/ B( ^0 i& W1 {& P  n9 q  h" }9 ]
    pos_label=1)
    : @# z8 C, Z. f' s9 `0 udisplay(probo[:, 1])$ g3 Z$ P. K! u
    # 从概率中,选择若干元素作为阈值,每个阈值下,都可以确定一个tpr与fpr,
    ) E( J1 y: `0 @' z# l# 每个tpr与fpr对应ROC曲线上的一个点,将这些点进行连接,就可以绘制ROC曲线。
    & J: Q8 f& F4 ^. T! L1 V0 t6 ?3 Idisplay(thresholds)* b' h9 d  m9 G
    : R9 g% ^: N6 q, J( f
    结果:/ p2 \: N* d7 K7 Y7 v2 E
    18.png
    * y5 {: e: N/ `4 T1 O
    1 N, u" {& ?) @) o" U& T' y' r; X  E$ ]) K  G
    # 随着阈值的不断降低,fpr与tpr都在不断的增大。
    * {& C( J- x  \1 `8 p& A2 ~fpr, tpr
    9 ~9 e8 O& w4 R3 T# M) o0 u# b. t& k. a; p
    结果:0 m5 K- ]2 y1 d
    19.png
    + @  E4 ^' W( ?% d5 l8 v' d; m: {- ]2 W2 K: {
    4.3.3 绘制ROC曲线
    + }3 Q  V" o7 \6 ~1 ]  F. j- ]有了fpr与tpr的值,绘制ROC曲线是非常容易的,只不过是最简单的一个plot而已。
    2 h1 G' w7 {7 u; p5 u& W, xplt.figure(figsize=(10, 6))
    & @- n/ p6 E- l3 R+ Xplt.plot(fpr, tpr, marker="o", label="ROC曲线")2 _- }" j$ y5 B( l
    plt.plot([0,1], [0,1], lw=2, ls="--", label="随机猜测")
    - F! `6 B+ z4 U. d7 H: _  [1 l8 w9 k. ~plt.plot([0, 0, 1], [0, 1, 1], lw=2, ls="-.", label="完美预测")) f2 U, W6 _; g6 ?% W
    plt.xlim(-0.01, 1.02)
    2 B8 k1 p4 [* Oplt.ylim(-0.01, 1.02)
    ( z0 G8 F; |7 G0 V3 J. [$ Kplt.xticks(np.arange(0, 1.1, 0.1))
    8 ?+ ^; `. Q4 D7 b) r7 cplt.yticks(np.arange(0, 1.1, 0.1))  I5 p! j1 l8 g% U  u+ J5 z
    plt.xlabel("False Positive Rate(FPR)")
    8 W7 n' I$ ~+ S$ {' cplt.ylabel("True Positive Rate(TPR)")
    8 k( x* W( E) C8 Qplt.grid()
    % H2 Q6 b- Y, V2 tplt.title(f"ROC曲线-AUC值为{auc(fpr, tpr):.2f}")/ U: ?, @% P1 A5 \' ^$ e$ H
    plt.legend()
    7 j6 V8 M/ W; Eplt.show()
    ! a9 _, B4 b2 I- y! K7 e+ Z 20.png
    % P  _1 R$ o; S3 T, _5 `, q
    " C7 X: [$ N+ E1 r7 r3 A& y5、总结
    ; A6 o& }$ m+ e) f, n% S  e  }; t. N- \4 a( @4 u6 {3 y' R
    混淆矩阵的含义。1 o  O2 H6 p/ L- p$ a, t: O7 X* c
    正确率,精准率,召回率与调和平均值F1的含义。( U* @5 i/ D6 X% f# {2 L  R
    ROC与AUC。
    ' X+ G( c6 a% ]2 E: Z% M# ?0 U5 K; p7 x: w" _, i( B
    参考资料:
    7 K4 Z" ^' m6 p; r) x+ L1、https://blog.csdn.net/zuolixiangfisher/article/details/81328297: P# x) D# w' R  w5 h4 L5 `: M* k
    2、https://www.jianshu.com/p/2feb00839154; o+ p9 I+ i6 f$ \9 y7 x
    3、https://www.cnblogs.com/kamekin/p/9788730.html6 s) u( J3 Q' R$ e
    4、https://www.jianshu.com/p/c61ae11cc5f6
    - `8 C& z6 H! r7 U/ n+ L/ T————————————————2 J  i" d9 z/ i. M
    版权声明:本文为CSDN博主「糖潮丽子~辣丽」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。( R' T: K$ y, P# h
    原文链接:https://blog.csdn.net/qq_39783601/article/details/105600700, p) l' o/ Z  [# c! F

    1 V# i4 P  X' o; Q/ j  N6 S
      R2 x6 }( d. O
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信

    0

    主题

    1

    听众

    11

    积分

    升级  6.32%

  • TA的每日心情
    开心
    2020-4-19 10:15
  • 签到天数: 2 天

    [LV.1]初来乍到

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 14:17 , Processed in 0.362915 second(s), 59 queries .

    回顶部