QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2678|回复: 1
打印 上一主题 下一主题

详细讲解分类模型评估

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-19 11:53 |只看该作者 |正序浏览
    |招呼Ta 关注Ta

    9 A( A9 l+ M! s: O  k9 b详细讲解分类模型评估分类模型评估
    7 z) }6 \3 X% }. ^' S1 E9 `4 M! S+ E' m. e2 y( E& S" p( i: D
    1、分类模型8 u5 T8 }8 m  }0 ]
    主题:如何对分类模型进行评估, t4 v+ o, r% s* M1 q
    目标:
    7 O( g( k5 V; \2、混淆矩阵
    + G# t  O$ D6 p3 X& r" y5 V% j3、评估指标6 g. d7 M9 O. t4 O8 t1 b/ Z
    3.1 正确率
    + F) w$ ]" }2 E5 w5 |  I1 E4 {3.2 精准率+ x% ~6 z% R0 |' `9 w7 \
    3.3 召回率  K. o7 S$ s$ J! N8 O
    3.4 调和平均值F1
    * e& |1 N, B) a! ]+ r6 v4、ROC和AUC- W! {8 n/ @" ]" R0 F% Q$ {
    4.1 ROC曲线* b7 u6 Z5 W3 S2 `0 {
    如何画ROC曲线:
    3 N6 B# {) [# V3 b. Y3 @4.2 AUC3 M# U) E) q" d1 ^" H4 T
    4.3 ROC曲线程序示例
    2 `4 `% y- B4 L/ E4.3.1 roc_curve函数的参数
    - @4 v9 ]; U1 Q6 t$ V# L1 v8 v4.3.2 roc_curve函数的返回值$ |( b" Y( f8 U+ P
    4.3.3 绘制ROC曲线1 m8 h+ J: T8 p' Y" Q
    5、总结
    ) y* V% m8 e7 C7 m( C1 Y8 N1、分类模型
    ( T" {4 i% W; D& R. c8 q* Y( O& U! ?) u4 N
    分类问题在我们日常生活中处处可见,比如我们对帅哥的分类,可能对帅哥分为非常帅和一般帅。比如我们平时刷淘宝,淘宝根据我们平时的喜好给我们推送产品,那我们就会把产品分为感兴趣和不感兴趣两类。: W. y# Q( w/ S1 I( A
    上述所说的问题就是典型的分类问题,确切的说其实就是二分类问题。6 _; d+ c1 J- a; Y
    能够解决这些二分类问题的数学模型就被称为二分类模型。/ E' ?5 x+ k9 o
    用数学的方式表达就是,给定自变量X,代入到我们的分类模型F,会输出因变量y,y的取值为0或1,其中0代表负样本(一般帅的帅哥、不感兴趣的推送),1代表正样本(非常帅气的帅哥、感兴趣的推送)。( y0 v5 A7 f4 R; f/ W$ q, s; }; O! ?

    ' J2 A$ f" [' _主题:如何对分类模型进行评估
    3 U2 ?7 }: F/ Y. y
    4 x- C( Q- d, p2 f$ z目标:
    , U( y4 U# T2 Z+ }2 f: f
    . w! h% o. Y$ f4 ?( {# {' m% F能够熟知混淆矩阵的含义。
    7 _8 b: `+ B. ~: i9 N能够使用各种指标对分类模型进行评估。
    ' S* O4 g# L7 Y- Y9 A& |, u, {  v能够独立绘制ROC曲线,并熟悉该曲线细节。
    % e: X+ O$ \7 [' j3 y能够对样本不均衡进行处理(扩展内容)。6 {% {' [6 q7 X0 N
    2、混淆矩阵% a, Y2 i/ n, [

    - `! W: h& ~4 l* k+ D" o) E混淆矩阵,可以用来评估模型分类的正确性。
    # i1 c5 R# [; S该矩阵是一个方阵,矩阵的数值用来表示分类器预测的结果,包括真正例(True Positive),假正例(False Positive),真负例(True Negative),假负例(False Negative)。  u2 `" ?0 t. p* S
    1.png   E) {+ q! S$ v
    矩阵的形状是2 x 2,其中, - 矩阵的左上角表示,预测值为1,实际值为1(True Positive,简称TP); - 右上角表示预测值为1,实际值为0(False Positive,简称FP); - 左下角表示预测值为0,实际值为1(False Negative,简称FN); - 右下角表示预测值为0,实际值为0(True Negative,简称TN);* N. E/ n+ J6 R7 ?
    ( |; ]7 }" k" Z, V9 T
    真负例(TN)+ 假正例(FP)——每个类别真实存在的负例的数量
    $ |4 v* s! f8 B+ J) E3 n假负例(FN)+ 真正例(TP)——每个类别真实存在的正例的数量. L' j% H3 P  m3 R% H- ^
    真负例(TN)+ 假负例(FN)——每个类别预测的真负例数量
    : b7 b# a# [4 U/ R( w: H假正例(FP)+ 真正例(TP)——每个类别预测的真正例数量- E- @# J, w7 Y  Y9 e
    其中:
    , K' n, W5 U/ `5 l# L$ ?* M/ r9 z0 j( Y) z/ ^0 P9 v
    TP:真正例,实际为正预测为正;7 j% k% ^  ]7 L2 y; q6 W1 S- W
    FP:假正例,实际为负但预测为正;5 J, y2 i: h% c# s
    FN:假反例,实际为正但预测为负;0 \* H( P" l; N, V0 a# s) B9 a$ \
    TN:真反例,实际为负预测为负+ q5 a: a- T2 n' c
    接下来,我们通过数据来看下鸢尾花的混淆矩阵:
    ( c8 {  h1 Y8 C4 a% j4 F- yimport numpy as np
    6 B" A. p. f. ~7 p& S1 s1 Y; Ifrom sklearn.datasets import load_iris1 s  O4 E+ ~( w
    from sklearn.linear_model import LogisticRegression& k* a( N3 }, L
    from sklearn.model_selection import train_test_split' y2 m9 h$ r, r; ?. l6 M( S8 q, k5 g
    # 混淆矩阵  r2 B9 r: W) A: P7 V
    from sklearn.metrics import confusion_matrix
    % D6 A4 x) b2 R- {$ Eimport matplotlib.pyplot as plt
    9 w! w' X# q) w& J: r  Wimport warnings) V. ]* }- b" D0 c$ }' a0 y

    " b% j- x! i7 l/ l) L( u: N: k: \plt.rcParams["font.family"] = "SimHei"( K/ G' r2 h5 L1 M/ `
    plt.rcParams["axes.unicode_minus"] = False
    4 ?0 D- v8 z3 jplt.rcParams["font.size"] = 12
    ! a. q  M* \  L4 Q! R: owarnings.filterwarnings("ignore")
    1 d* z: r+ A9 d# z1 M$ e, v0 L: R: `9 q& y7 R0 E9 W+ }
    iris = load_iris()  #导入鸢尾花数据集) g( |! i& P. o. C/ f, ]" f% i% A, [
    X, y = iris.data, iris.target
    & x% U6 L" t% B7 X: F# i( e1 H5 ^X = X[y != 0, 2:]7 j+ O. m$ j  K
    y = y[y != 0]
    ' u) U6 h$ L" t; ^8 ^2 j- My[y == 1] = 0; N5 i  `- J* S
    y[y == 2] = 13 {) a9 w# m, h) o; b; x- `6 w
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)
    ; L! [! I+ p' Z7 S% y7 e+ Z: Jlr = LogisticRegression()  #使用逻辑回归4 ]1 ]9 G4 c- h
    lr.fit(X_train, y_train)
    $ m( H; t/ M, s0 W. J% ly_hat = lr.predict(X_test)- N" z/ f9 k" J  a3 j- X
    # 根据传入的真实值与预测值,创建混淆矩阵。' c1 k! i7 N7 G6 }7 M6 G7 g, ^
    matrix = confusion_matrix(y_true=y_test, y_pred=y_hat)
    ! l( B' w/ n/ |print(matrix)2 M+ B0 x- ~# B3 H8 T6 p
    ( d8 b: |) C) E, y# c- J& K, b( l

    $ L2 V1 J8 A: G  K) d1 Y$ B输出结果:$ Q7 V3 l+ J" _8 R( v' X
    2.png * D7 a! ?1 {) Y8 r% ?
    我们还可以对其进行可视化操作:2 m& Y0 u7 j3 d" z8 F& t
    mat = plt.matshow(matrix, cmap=plt.cm.Blues, alpha=0.5)    #cmap 指定颜色图色系,alpha透明度/ e8 I% Z- r5 ?: X% D; Y
    label = ["负例", "正例"]
    0 L, b5 k( ~# n# d2 [" fax = plt.gca()
    * G# f- p: n& ?/ |) d) cax.set(xticks=np.arange(matrix.shape[1]), yticks=np.arange(matrix.shape[0]),
      x' R5 R  m* i9 W$ [- v        xticklabels=label, yticklabels=label, title="混淆矩阵可视化\n",
    6 N8 A0 j) ^) D. \6 c6 {1 a6 {        ylabel="真实值", xlabel="预测值")& p7 }3 G: k7 V" s- F* I- p
    for i in range(matrix.shape[0]):
    ( J8 A5 V) y! Y7 W/ w% a9 a    for j in range(matrix.shape[1]):) \0 E7 t. J# C- \* @/ ~
            plt.text(x=j, y=i, s=matrix[i, j], va="center", ha="center")9 ~0 U" \0 e9 |/ C7 _5 o* {
    a, b = ax.get_ylim()
    : M1 ^! ?1 w! B0 Pax.set_ylim(a + 0.5, b - 0.5)! z+ P6 m( R% m) ?% p
    plt.show()
    $ O2 k1 c6 E* m
    * A+ ]  S. T" y, F1 p0 p% g7 y& Y) c. M  a
    代码解析:4 |& s9 W* {6 _' E# I
    matshow( ) 绘制矩阵,alpha 透明度
      r$ v9 W  p) z/ ?结果:# x- f$ X7 S. B1 D' [! l
    3.png
    , O  r0 E' x6 h: c练习:
    7 a& g3 s9 A1 {! W9 T) U! N- X7 ~! r* u6 b0 }+ H7 }1 l1 k
    关于混淆矩阵,说法正确的是( ABCD)。【不定项】
    5 c: Z4 B0 U: }7 A; M; HA 混淆矩阵可以用来评估分类模型。
    " ]1 X1 C: j% Y$ m3 U; oB 混淆矩阵中,TP与TN的数值越大,则分类的效果越好。
    / i6 W$ }; Z3 }8 M0 C6 _" b  AC 混淆矩阵一行元素的和代表某个类别的实际数量。) |7 y; f4 m7 N
    D 混淆矩阵一列元素的和代表某个类别的预测数量。- n" J3 M+ ^: }+ N% ~2 E  p% I
    3、评估指标
    ( n" {. j1 d* z1 Z* V' Y  I$ t" {. O, M; y* q8 I( @. J
    对于分类模型,我们可以提取如下的评估指标:
    " n! T2 A9 v7 W5 s+ s
    " b! Q7 X$ Z6 N1 X+ @正确率(accuracy)3 `4 `% Z0 V, g- |8 h& P
    精准率(precision)
    5 ~4 }0 l& p8 _) R8 W5 d) H召回率(recall)* o+ q. s4 w$ |/ N
    F1(调和平均值)
    5 o- M+ ]5 ], z8 i: |5 n3 F) k! ^3.1 正确率) ?" i- o6 o  W/ K
    4.png
    ! e* ]" S6 U" f正确率(准确率)定义如下:0 P0 L( b$ ~6 b  k( _
    衡量所有样本被分类准确的比例。7 I6 k- |: _- u' x0 ?, ]
    Accuracy = (TP+TN) / (TP+FP+TN+FN)8 v0 S- k. Z, c: G, e

    2 J1 [6 D% |* y5 v6 k预测正确的数量除以总数量。
    . S: I" a4 ^3 C- d( ]- B* G) i
    ) v. q( ]% r0 k  a3.2 精准率9 }8 V8 k; p, @4 X
    5.png
    ) B# n' Z7 w! C查准率(精准率)定义如下:
    3 T, Y5 y: y6 D: X$ X! M衡量正样本的分类准确率,就是说被预测为正样本的样本有多少是真的正样本。
    * \4 D* B' v5 BPrecision = TP / (TP+FP)& ?6 a% d6 K3 e* X0 m7 F* V- x
    9 C1 O/ ~$ ]( ~& {# c* f
    精准率只考虑正例。1 z# X1 ?. b7 G( Q
    9 V" S+ h, G- y7 ^) X) e
    3.3 召回率! \+ o5 l; e5 m
    6.png
      z8 o3 y  C. U4 F1 ]( U查全率(召回率)定义如下:
    3 i' R4 u( |+ R/ n, q3 ^* n表示分类正确的正样本占总的正样本的比例。$ b8 o% j) P1 M' ]3 H- D
    Recall = TP / (TP+FN)
      Q1 X* ?* v. I1 ]" g6 c* r4 f4 J9 K& O7 H1 ~" l# Y# L

    2 b2 k/ \$ T3 h$ W$ {7 E+ Q$ `! W1 A3.4 调和平均值F17 s* O' T( E: B' @# H
    7.png
    & b$ n0 r/ H% `+ wF值(F1-scores)调和平均值F1定义如下:
    . g  W3 w- y, [+ J2 ~; W精确率和召回率的调和平均。
    0 K% ?9 H6 _5 y3 U+ q2 `$ l! A" V精准率Precision和召回率Recall加权调和平均数,并假设两者一样重要。: k) [' H; ^; H" N2 h3 ~9 j
    5 i+ H) Y( C, [) a9 b
    F1-score = (2Recall*Precision) / (Recall + Precision)3 L' [0 \5 F2 K, R0 I

    2 e+ N/ F9 q5 C# l9 D精准率和召回率是一对矛盾的度量。一般来说,精准率高时,召回率往往偏低;而召回率高时,精准率往往偏低。通常只有在一些简单任务中,才可能使二者都很高。
    $ _' a6 @& S; T# N最好的分类器当然是准确率、精确率,召回率都为1,但实际场景中几乎是不可能的,而且精确率和召回率往往会相互影响,一个高了另一个会有所下降,因此在实际应用中要根据具体需求做适当平衡。1 y9 Y: K4 l4 b
    让我们做个练习加深下印象吧!
    9 p" k( W/ H" b
    " m& ~0 `% t& [& ^9 ^以下说法正确的是( C )。
    # @( T4 A; |/ IA 使用正确率去评估一个分类模型,效果会比精准率更好。4 T: R$ a: V0 W* b" ~
    B 使用精准率去评估一个分类模型,效果会比召回率更好。# E+ X/ J$ ]9 c4 V5 U
    C 精准率与召回率通常要联合使用。+ o: J; ~' G' h9 a
    D 精准率与召回率如果有一个值较低,F1值也可能会较高。! {5 f4 w- y5 T0 f# u9 v
    如果精准率和召回率我们只能选择重视一个,我们会更看重( C )。
    * Y0 S3 M6 J7 {( Q4 ^A 精准率。
    ( x( i8 q# u  o1 l$ {# v& Z; _! ]B 召回率。+ {1 h5 Y2 w0 Z) R
    C 具体场景不同,重视谁也会不同。8 ]8 q1 C! {; d; u8 B6 @
    接下来我们通过程序来说明下:7 B1 y) {+ C( [, f! w) m# C2 T" u
    from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score$ c7 Z5 j+ `# C9 m' v, E
    7 u0 L' f& @( O5 B; o; n% |1 J: M
    print("正确率:", accuracy_score(y_test, y_hat))
    / y/ S6 u* S7 Z/ K# 默认将1类别视为正例,可以通过pos_label参数指定。
    & H) ]0 }, n3 l  x+ d; \4 _/ ~7 \print("精准率:", precision_score(y_test, y_hat))
    9 J" D3 d( c! w0 |+ l* nprint("召回率:", recall_score(y_test, y_hat))  i5 L0 v2 ^2 ?( w0 O
    print("F1调和平均值:", f1_score(y_test, y_hat))" m1 E6 z3 T+ q- x) I
    # 我们也可以调用逻辑回归模型对象的score方法,也能获取正确率。
    7 Y. Q5 I  k' J; l: K* c# b# 但是需要注意,score方法与f1_score函数的参数是不同的。0 q+ \7 g  k5 o. F8 D: ]; q
    print("score方法计算正确率:", lr.score(X_test, y_test))4 \% r! z, ?! J! O
    3 H. s8 o/ ~! P' M& e4 Y' [& |
    - m- \: [% n: z& m/ o9 S+ a7 ^# k
    结果:
    1 B' ?/ I; }5 q# v& d) { 8.png
    4 R4 S- X% y6 d, r7 i除此之外,我们也可以使用classification_report函数来查看模型的分类统计信息,该方法会返回字符串类型,给出相关的分类指标评估值。
      R( o* @8 `( a/ F) Lfrom sklearn.metrics import classification_report9 r6 w. M! h$ J1 ~. A6 @
    , c; {* Y8 {# Q# u5 E
    print(classification_report(y_true=y_test, y_pred=y_hat))% J" e- U9 ?* j% _1 Q' g3 x# Z

    2 ~, I# ?" l) Y# g6 O& G5 V# p9 J  F0 ~
    结果:, q& K( x1 a; B. [+ e+ |$ A
    9.png 5 a" O' `7 ]- x  m
    ) r- F  n; f) z( y
    练习:
    + H& S/ {/ g0 H6 F: i. R1 E. m1 E: {0 _8 R& b" m, d
    如果使用精准率与召回率评估二分类模型时,我们应该将哪个类别设置为正例? (B)$ v  Q3 T: d+ G% I, q: x3 z  g2 [
    A 随意7 {$ `+ u, M1 d# V4 i4 R
    B 关注的类别
    ! Z) ]2 W1 U, G$ Y/ B, k; `C 不关注的类别
    ! O5 L2 F8 ~- h2 w4、ROC和AUC
    + X0 S' g2 b, W/ {; D; l5 {6 W4 v, X/ t4 f$ `1 s
    ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。. r# R  [+ K' C3 A8 d
    - S5 {7 k. @& x1 M$ T; @
    4.1 ROC曲线9 h9 m- e3 P/ ?: u: F" _
    10.png 9 D7 q+ u4 p+ F
    ROC曲线(Receiver Operating Characteristic——受试者工作特征曲线),使用图形来描述二分类系统的性能表现。图形的纵轴为真正例率(TPR——True Positive Rate),横轴为假正例率(FPR——False Positive Rate)。其中,真正例率与假正例率定义为:
    + F: U' f/ o  c/ ]1 {( s+ u3 C- q! f
    ROC曲线通过真正例率(TPR)与假正例率(FPR)两项指标,可以用来评估分类模型的性能。真正例率与假正例率可以通过移动分类模型的阈值而进行计算。随着阈值的改变,真正例率与假负例率也会随之发生改变,进而就可以在ROC曲线坐标上,形成多个点。! r7 \4 ?7 k/ c

    # k. j7 L4 k: J9 Y( p- g: zROC曲线反映了FPR与TPR之间权衡的情况,通俗来说,即在TPR随着FPR递增的情况下,谁增长得更快,快多少的问题。TPR增长得越快,曲线越往上凸,模型的分类性能就越好。
    : F# g+ e0 X6 T/ x0 v, k1 o
    6 Q! }( o9 o; e/ e* H! @. _2 c, FROC曲线如果为对角线,则可以理解为随机猜测。如果在对角线以下,则其性能比随机猜测还要差。如果ROC曲线真正例率为1,假正例率为0,即曲线为与构成的折线,则此时的分类器是最完美的。' C5 i6 V) w" F6 {2 X& v% r& d$ H) p
    # j4 O+ K6 i6 {9 p
    下图就是ROC曲线的一个示意图:0 U  q: {0 T$ C6 Q9 Q, h8 @; L9 a
    11.png & e: V* U" N2 e2 e" n
    ROC曲线横坐标是FPR(False Positive Rate),纵坐标是TPR(True Positive Rate)
    ; z' m3 t" q7 x! s接下来我们考虑ROC曲线图中的四个点和一条线。
      A( E- l$ }4 a7 ~4 F( V% w! y9 M$ ]+ Y! v* u: i) I, E7 A
    第一个点,(0,1),即FPR=0, TPR=1,这意味着FN(false negative)=0,并且FP(false
    7 _& Z$ J  R% y7 Z* j4 M  Qpositive)=0。这是一个完美的分类器,它将所有的样本都正确分类。  ~) D! u0 ]7 y: C# s' a
    第二个点,(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。, W' X$ E0 `3 v/ H0 `" g. U
    第三个点,(0,0),即FPR=TPR=0,即FP(false positive)=TP(true& u9 M9 L" V4 f! N0 h1 m
    positive)=0,可以发现该分类器预测所有的样本都为负样本(negative)。
    1 a% G: J7 q/ U) W; X9 |) s# d第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。' w& R$ Z* o" N, R# P$ J
    如何画ROC曲线:- c2 T2 |2 a. @; G3 {  l& z
    ' `# g0 I) f! D
    对于一个特定的分类器和测试数据集,显然只能得到一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下wikipedia上对ROC曲线的定义:
    ' ~' A7 d; j) x) r7 u: M0 r9 Q5 V. `6 N$ E. `' m7 _
    A receiver operating characteristic curve, i.e. ROC curve, is a$ T+ ^8 |+ `. L0 F0 u
    graphical plot that illustrates the diagnostic ability of a binary- H9 H. W/ K3 E6 [
    classifier system as its discrimination threshold is varied.8 i; S  m9 k: p6 T
    译:ROC曲线是由一系列因区分阈值变化产生的点,用于描述二分类模型的判断能力* Q* [  v7 t5 s: R" G" w
    这里的关键在于 “its discrimination threshold is varied” ,因为对于一个二分类模型,它的输出结果其实是判断这个样本属于正样本的概率值,假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率& @/ E2 t, o8 m  i* }/ S, q: v! v$ c7 Q
    12.png 4 |, H4 J8 b. |5 {! O
    然后我们按照样本的score值,从大到小依次作为阈值,当样本score值大于等于阈值时则判定为正样本,否则为负样本。  O' l& h" H$ N; ~- e
    例如第一个阈值取0.9,这时只有id=1的样本被预测为正样本,其余都是负样本,此时TPR=1/1+9=0.1, FPR=0/0+10=0。还例如:对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。  p  b7 _2 K- I7 v; ^; }4 n

    , x' x. K% S* b( `" \( t6 T9 l详细如下:& h3 z9 X$ a0 S5 `6 |# J5 d
    13.png
    % k) ]' S  U7 L6 p% i. B由此我们便得到了一组(FPR,TPR)的值,可以绘制出ROC曲线:* P6 D3 V3 ~4 S2 U" o+ i+ a/ _  o
    14.png
    + d( {- O9 W/ S当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。
    * l/ ?5 Q% M1 E# B( V' I6 v; ~+ c% O- C2 L
    4.2 AUC
    1 U" s2 J, P6 l( c8 _ 15.png
      e3 j0 _( z* b; f( m6 LAUC(Area Under the Curve)是指ROC曲线下的面积,使用AUC值作为评价标准是因为有时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。. H, B$ u: Y+ y2 t9 W+ U9 G/ X( t

    0 T# F$ n0 V) Q  V6 LAUC是ROC曲线下的面积。
    5 x( L! ]& A" T! zAUC的取值为[0.5-1],0.5对应于对角线的“随机猜测模型”。0 h2 ~/ {7 Q+ [2 y3 O! \: ^
    AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。
    6 I+ d9 |/ T) K8 R' L* Z6 ^, i
    * u( J4 e6 b! g从AUC判断分类器(预测模型)优劣的标准:# m: a' b7 _8 P6 p3 L

    3 {0 h$ F" n9 o$ V
    3 u! j+ r' t  }4 Q, o2 {1 g例如一个模型的AUC是0.7,其含义可以理解为:给定一个正样本和一个负样本,在70%的情况下,模型对正样本的打分(概率)高于对负样本的打分。0 o: w8 ?2 `3 L' V7 Z

    * F8 L6 _% I/ a/ h9 T8 z$ W* O三种AUC值示例:- d; ?3 t& b4 a" X/ [
    16.png % `/ r; m8 L$ ?2 m* t
    简单说:AUC值越大的分类器,正确率越高。* N( _9 Z& M9 J% j0 e1 Y& [: Z' E1 ^

    7 y/ ?9 U& i! z( }& f0 g那么为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?1 Z0 v; [/ d, ^1 J
    因为机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。也就是说AUC越高说明阈值分割所能达到的准确率越高。
    # s/ `# h1 t. M. L  x6 z8 ]2 Z4 M5 [% p2 H: P! P+ J
    小练习:: |$ m0 j) i, _& z

    7 r0 o/ ?* W9 c$ m: ^# r以下说法正确的是( ABD)。【不定项】
    ) I0 o7 ?0 q* T- O! Y$ nA 随着阈值的降低,TPR与FPR都会增大。+ n+ b4 I% z- W
    B TPR与召回率的值是相同的。
    ) H% J# E1 c$ S; e+ ^* GC 如果AUC的值非常低,例如,0.1,则该模型效果很差,也很难调优。
    8 R5 |. g0 [% {- q  hD 无论是什么分类模型,ROC曲线一定会经过(0, 0)与(1,1)这两个点。# I! T+ ]. I+ G* U& l% T& W; b% c
    4.3 ROC曲线程序示例
    ' E; {, |5 B! G  z! A
    * P) R, N0 i; x我们首先来看一个简单的程序示例,借此来说明sklearn库中,ROC曲线的实现细节。" q/ O# _+ M+ ]- {+ P7 t
    9 s+ @' t0 c6 g3 Z
    4.3.1 roc_curve函数的参数
    $ g+ F) E6 A+ p, p8 ~* `import numpy as np
    1 ~# x! Q: T9 c- Y$ E. Cfrom sklearn.metrics import roc_curve, auc, roc_auc_score7 y% t4 B! a# f" W- \( n3 h! Y) ^
    y = np.array([0, 0, 1, 1])2 E$ Z# o  Z2 d
    scores = np.array([0.2, 0.4, 0.35, 0.8])
    ' Y6 x, [. \9 I) K# 返回ROC曲线相关值。返回FPR,TPR与阈值。当分值达到阈值时,将样本判定为正类,; Z& J  e3 p; ]$ W3 L1 A5 l
    # 否则判定为负类。# R+ v) n5 ~! H/ P  b% a
    # y_true:二分类的标签值(真实值)。
      I3 X! R" w- X9 `# y_score:每个标签(数据)的分值或概率值。当该值达到阈值时,判定为正例,否则判定为负例。( ?  U* y% G" E) h0 L7 S
    # 在实际模型评估时,该值往往通过决策函数(decision_function)或者概率函数(predict_proba)获得。
    3 S, h9 e+ O4 v& @. A( n# pos_label:指定正例的标签值。
    + X. C+ `4 t$ f0 Kfpr, tpr, thresholds = roc_curve(y, scores, pos_label=1)
      c/ c' B2 T8 c. ~+ {: ?, d8 Wprint(f"fpr:{fpr}")0 z" |1 Z& V; W, x/ j4 i
    print(f"tpr:{tpr}")
    ( y9 T) R4 m4 A6 Vprint(f"thresholds:{thresholds}")# e4 X7 ?. |% _8 k# V
    # auc与roc_auc_score函数都可以返回AUC面积值,但是注意,两个函数的参数是不同的。
    7 B, ~$ n4 {& p) P; v6 P  `9 [print("AUC面积值:", auc(fpr, tpr))
    & Q6 a2 ?- a9 D. q' G* Zprint("AUC面积得分:", roc_auc_score(y_true=y, y_score=scores))
    0 ~+ s2 V6 J3 ]% L6 j) K" k( U* y4 f#### 3.3.2 roc_curve函数的返回值# D6 q" `8 z: W" ?& h

    * B- u& z' `6 K) _8 E& |9 r1 d0 Z' r结果:
    8 }8 ]: P# E$ A% v, D 17.png 1.8 是怎么来的?
    4 R/ ^7 k, R/ [) h( X- v) i1.8是阈值中最大值+1(0.8+1)得来的。为什么这么算?因为要使得最开始得到的所有阈值都不会超过这个值,才能过(0,0)和(1,1)这两个点。
    6 F) Y! |0 O1 _; n
    2 t0 i* _; v! {& [0 O. [7 O4.3.2 roc_curve函数的返回值1 V5 O9 S0 |; p! c  Z9 |
    1 n# w2 v7 [2 W# c: \1 T; a
    roc_curve函数具有3个返回值:# _- I: |7 X& m* f0 ]) z) b

    / w, l6 s% U4 e! d8 Ufpr 对应每个阈值(thresholds)下的fpr值。) W9 x  m$ {  x) @% \9 J% C$ w- M
    tpr 对应每个阈值(thresholds)下的tpr值。, D- g/ B% n7 l9 R1 [( Z) p5 [
    thresholds 阈值。
    , J' Q- m5 j5 D1 _* ^roc_curve函数会从y_score参数中,选择部分元素作为阈值(选择哪些元素属于实现细节,会根据sklearn版本的不同,也可能会有所差异。),然后进行降序排列,作为roc_curve函数的第3个返回值(thresholds)。同时,根据thresholds中的每个元素(阈值),分别计算fpr与tpr。
    2 m! t2 }; \8 A0 l# J2 wiris = load_iris()0 u( r$ i5 C9 }4 V
    X, y = iris.data, iris.target! F$ n' F* p& k: |/ |& |' E. y
    X = X[y != 0, 2:]" c1 ]: w0 n: A. `
    y = y[y != 0]
    2 Y- V7 r4 r3 u- T# ]y[y == 1] = 0* T( R7 f& L0 R! o
    y[y == 2] = 1
    / R$ v' ?1 J5 r& y2 d: A8 A4 \" T  {6 fX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25,
    - m2 e# y! O5 @5 M& Prandom_state=2)
    # \+ j- l; d7 f* x9 Y" n3 z# lr = LogisticRegression(multi_class="multinomial", solver="lbfgs")
    $ e; e: {$ `2 u, [lr = LogisticRegression(multi_class="ovr", solver="liblinear")! C( S3 R7 n9 D8 y4 ?& i0 c" n, U
    lr.fit(X_train, y_train)* H! x  e- ^6 ?$ y
    # 使用概率来作为每个样本数据的分值。2 V2 k- W* h& f+ w$ M
    probo = lr.predict_proba(X_test)
    " }2 _5 @$ a: Y7 R* n# b; }/ Jfpr, tpr, thresholds = roc_curve(y_true=y_test, y_score=probo[:, 1],* B% _- t& d% c! k  S
    pos_label=1)
    + }/ @3 U5 P$ i- F6 ]% Jdisplay(probo[:, 1])/ q; @$ M/ J8 B1 I
    # 从概率中,选择若干元素作为阈值,每个阈值下,都可以确定一个tpr与fpr,; m7 X2 ]- ^8 a! [2 ]
    # 每个tpr与fpr对应ROC曲线上的一个点,将这些点进行连接,就可以绘制ROC曲线。; S1 }6 i. E. T1 a# U
    display(thresholds)
    & k; A& A' I1 X3 K& ~. p4 ?6 {6 J0 s  R5 t( \; B' m$ d
    结果:
    $ Y4 E  t+ V  z# @$ _( J0 T/ @; h 18.png 7 a, Q+ N" d$ ]' X/ }' ]% p6 u% z

    , B, [* j/ U% m% e- G* V$ s  D% C+ K7 U* q# L7 p
    # 随着阈值的不断降低,fpr与tpr都在不断的增大。; @4 Z6 j! ~; x
    fpr, tpr
    ( m5 u, V& c7 F/ H: \1 R, K$ z8 w5 Z
    5 f7 |$ U2 F3 i/ R3 `6 h结果:
    4 B; \$ C( J) p2 I# ] 19.png   r5 R9 S% Y* d- G

    2 s* A9 H# c5 J% d8 v/ ?' u: G) v4.3.3 绘制ROC曲线
    ) Z2 B  g1 Q# M( w% e7 x* c1 s. G7 R* [有了fpr与tpr的值,绘制ROC曲线是非常容易的,只不过是最简单的一个plot而已。
      f: e. M/ |$ @" R+ Y' t8 Tplt.figure(figsize=(10, 6))
    / k  I: ?9 d% ?0 D5 h3 f5 m1 M! y+ [plt.plot(fpr, tpr, marker="o", label="ROC曲线")
    ) @6 M/ }9 a  {5 Oplt.plot([0,1], [0,1], lw=2, ls="--", label="随机猜测")9 a8 o% M2 b8 [3 d8 J
    plt.plot([0, 0, 1], [0, 1, 1], lw=2, ls="-.", label="完美预测")! \% B+ k  r2 y6 t
    plt.xlim(-0.01, 1.02); u8 C7 C: _! I  ^& W3 G7 c
    plt.ylim(-0.01, 1.02)
    ! Y( i2 m, M, q! Zplt.xticks(np.arange(0, 1.1, 0.1))8 y% u% ]3 V. l( G+ E9 S( X: f
    plt.yticks(np.arange(0, 1.1, 0.1))0 u5 M$ ]( J! c3 ]) b7 _9 X1 B, H
    plt.xlabel("False Positive Rate(FPR)")
    5 f' C& i" a' cplt.ylabel("True Positive Rate(TPR)")
    % {+ E+ j/ o* j" Uplt.grid()
    3 G! g4 i" ?& b: l6 ~plt.title(f"ROC曲线-AUC值为{auc(fpr, tpr):.2f}")# G7 }* p' ^6 k! Z6 Q' h
    plt.legend()$ x7 o/ ]" j. H& v# K
    plt.show()
    9 v3 J% {% a/ N$ P 20.png ' b% h3 v3 f3 _/ }# J* n

    . B' |- r  w$ S2 p  O' \7 u' _5 o5、总结1 [' y8 u6 I' |+ p0 z
    ( P1 N7 t* ?2 ^$ W. {/ V0 o+ F
    混淆矩阵的含义。
    " V0 d9 o/ M; K* \6 t5 p正确率,精准率,召回率与调和平均值F1的含义。
    # `. W: e2 S4 T; _" tROC与AUC。
    ( t& s4 u" f, G: Y/ @
    . n2 f2 J3 d! M参考资料:
    - {1 h5 E; X! ~+ I0 Q1、https://blog.csdn.net/zuolixiangfisher/article/details/81328297+ e& F2 y0 q' }$ t$ M
    2、https://www.jianshu.com/p/2feb00839154
    ) z% Q# x, f6 s0 p. D3、https://www.cnblogs.com/kamekin/p/9788730.html
    9 b  v) |2 D2 W% @( E& [5 u) Q4、https://www.jianshu.com/p/c61ae11cc5f6
    " q+ J& t8 r/ F% ~8 t8 h3 x————————————————+ n. d- u; Y0 l: I9 D! l
    版权声明:本文为CSDN博主「糖潮丽子~辣丽」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。! p3 h+ J8 t; f5 s6 U5 R
    原文链接:https://blog.csdn.net/qq_39783601/article/details/105600700: g; o* |& U# D( t& D
    5 o- v0 m0 u/ [4 M8 D9 J  _& u& Z

    9 {* p: g" ?  m: d- a+ x
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信

    0

    主题

    1

    听众

    11

    积分

    升级  6.32%

  • TA的每日心情
    开心
    2020-4-19 10:15
  • 签到天数: 2 天

    [LV.1]初来乍到

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 02:26 , Processed in 0.434730 second(s), 60 queries .

    回顶部