QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2343|回复: 1
打印 上一主题 下一主题

详细讲解分类模型评估

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-19 11:53 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    5 e# Z+ p2 ?4 q, K" g/ N9 U0 t
    详细讲解分类模型评估分类模型评估9 C2 W' x7 X, H, @0 t7 O0 {, k

    % \6 z8 b  o! \" ^1、分类模型
    ) x& F1 K( @; q) N- S主题:如何对分类模型进行评估+ s1 ]9 I4 c! T1 L, A% |+ y6 [  P/ o
    目标:
    / B, @5 V# n# g3 M2 D( I2、混淆矩阵
    & o/ B4 _( m' V7 ~: F3、评估指标
    5 p% r, w3 n$ K6 o3.1 正确率
    . \$ A) l8 U. _3.2 精准率* W+ Y/ V0 H! C/ }. b, u& z
    3.3 召回率/ y7 H! |- J: o! m
    3.4 调和平均值F1
    " ]: R  B% M$ \+ w0 k4、ROC和AUC
    9 W4 E$ X$ p# R" D) |4.1 ROC曲线, T1 b' E- G  k, d
    如何画ROC曲线:( ]: w" N2 d( y, c3 [
    4.2 AUC
    0 n1 U/ f$ L( P4 J6 v3 s" {4.3 ROC曲线程序示例" O* N/ o2 ~1 F1 r' }; z) X
    4.3.1 roc_curve函数的参数; e1 k- P; x9 Z9 f; S. X: \
    4.3.2 roc_curve函数的返回值
    ) h. h$ s" ]" w/ s) l, _5 T4.3.3 绘制ROC曲线6 {) k# a1 d+ e* ~- Y; O4 d+ v
    5、总结8 k+ f/ P/ X4 i1 P; s% i, D
    1、分类模型- L! D1 A, w' V  ?4 C
    2 O+ J, ^/ n6 A( Q% E' a
    分类问题在我们日常生活中处处可见,比如我们对帅哥的分类,可能对帅哥分为非常帅和一般帅。比如我们平时刷淘宝,淘宝根据我们平时的喜好给我们推送产品,那我们就会把产品分为感兴趣和不感兴趣两类。
    8 M* ~( A0 F# B# O) Z上述所说的问题就是典型的分类问题,确切的说其实就是二分类问题。
    " V4 S- I" |+ S9 z% o能够解决这些二分类问题的数学模型就被称为二分类模型。
    2 k, Z3 a. _. W: P+ K用数学的方式表达就是,给定自变量X,代入到我们的分类模型F,会输出因变量y,y的取值为0或1,其中0代表负样本(一般帅的帅哥、不感兴趣的推送),1代表正样本(非常帅气的帅哥、感兴趣的推送)。1 t, }' W: J+ T% x$ G8 I

    . I! T! `* e, E4 q- t/ q主题:如何对分类模型进行评估
    7 K3 q9 B  S0 W7 y& Z8 Z$ v. a0 ], A) M# Q. N" g# p6 K
    目标:
    - }7 T: Y% X' k9 c2 y  U' K4 ^' t& F! I8 O
    能够熟知混淆矩阵的含义。
    3 I  h5 k2 {; w- o能够使用各种指标对分类模型进行评估。
    ! ~' e8 x' C1 r( d' K能够独立绘制ROC曲线,并熟悉该曲线细节。
    0 H1 d" i) ?) z能够对样本不均衡进行处理(扩展内容)。
    1 w7 z2 [1 r* m: D  }( b9 M" |7 K2、混淆矩阵7 S: q% l$ d5 v& x; X- n
    5 r. I* Q9 _" M, c
    混淆矩阵,可以用来评估模型分类的正确性。3 Y- y* `0 [9 o
    该矩阵是一个方阵,矩阵的数值用来表示分类器预测的结果,包括真正例(True Positive),假正例(False Positive),真负例(True Negative),假负例(False Negative)。) c0 i! d5 U! l/ z
    1.png ' C+ ]5 W  `) b: I2 L6 s
    矩阵的形状是2 x 2,其中, - 矩阵的左上角表示,预测值为1,实际值为1(True Positive,简称TP); - 右上角表示预测值为1,实际值为0(False Positive,简称FP); - 左下角表示预测值为0,实际值为1(False Negative,简称FN); - 右下角表示预测值为0,实际值为0(True Negative,简称TN);
    3 r( |- j! a6 l* z( B* ]) z9 j' p+ }; G: a
    真负例(TN)+ 假正例(FP)——每个类别真实存在的负例的数量
    & |; b  N) G8 g1 u假负例(FN)+ 真正例(TP)——每个类别真实存在的正例的数量
    ' }; w2 B: i2 e0 k真负例(TN)+ 假负例(FN)——每个类别预测的真负例数量
    ! G' M) E- y/ m9 A假正例(FP)+ 真正例(TP)——每个类别预测的真正例数量0 l7 a9 D) j& Q# c/ V4 F: K% r( q
    其中:' j7 X  e6 i% r; S1 L7 i$ U
    7 B# ~  O( s' K4 C+ E6 N
    TP:真正例,实际为正预测为正;0 R  F8 ?7 ?2 D* J; ]! h- J
    FP:假正例,实际为负但预测为正;# \( L8 n0 P' L6 D# h& L
    FN:假反例,实际为正但预测为负;6 z) x0 f" _& @1 K+ S7 T4 S
    TN:真反例,实际为负预测为负% ~/ `- ^# W3 I1 h' G
    接下来,我们通过数据来看下鸢尾花的混淆矩阵:. T9 }" N, n) {
    import numpy as np5 q2 B5 ~8 R3 u* e+ i7 r5 X. L
    from sklearn.datasets import load_iris
    % S0 J6 W7 R, i+ G0 M6 Gfrom sklearn.linear_model import LogisticRegression5 E0 G( p6 |2 D; s6 f- c
    from sklearn.model_selection import train_test_split
    ( Y2 `; \. Z7 x6 T8 G$ h9 C# 混淆矩阵
    % [7 D5 S+ E5 Q  T3 ]7 q6 hfrom sklearn.metrics import confusion_matrix
    $ Q8 Q: f2 @  j& rimport matplotlib.pyplot as plt4 X! @: e! `1 s5 p' y5 j
    import warnings
    + S  J- L& W0 H7 @0 D* B5 @2 @! b: b4 S6 P5 E3 @% e
    plt.rcParams["font.family"] = "SimHei"
    3 K% O. c& I6 X- rplt.rcParams["axes.unicode_minus"] = False
    . M  U5 e, E8 y( Kplt.rcParams["font.size"] = 12( J) S5 ~9 M% a
    warnings.filterwarnings("ignore")) @" O! \1 U) [: B- w9 T3 D( H
    & O  f( R6 r- D" Y: K6 p/ {2 @
    iris = load_iris()  #导入鸢尾花数据集
    5 @0 \# d4 H* G8 N' eX, y = iris.data, iris.target# {# i0 ?! B2 L/ V! m. f
    X = X[y != 0, 2:]; ]; h. v/ E7 K% E7 P% ?) |0 g$ o/ t
    y = y[y != 0]
    ( v3 y7 Q/ E+ b, a( uy[y == 1] = 0
    6 S- d  G4 h' ]: F5 yy[y == 2] = 1" L& t) n  a& |! w
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)6 l, |8 U# Y' r+ u0 c/ Z. ~! o
    lr = LogisticRegression()  #使用逻辑回归1 M2 z# n, V% A5 Y
    lr.fit(X_train, y_train)" U; [% o. I$ R
    y_hat = lr.predict(X_test)
    : Z6 S( N2 R- ]# 根据传入的真实值与预测值,创建混淆矩阵。
    8 n9 \0 I# X1 S. F. a7 ?! C( ]1 pmatrix = confusion_matrix(y_true=y_test, y_pred=y_hat), Y6 X  n3 y$ B: ^2 d
    print(matrix)3 x! z1 y0 G* q

    ) k) O8 O: S' J4 D" i* G; ?7 S- \
    $ T3 u+ d+ G* P" `1 Z输出结果:
    ) y, }0 j/ x6 Q  `; _ 2.png % B, u9 T/ E# L2 r
    我们还可以对其进行可视化操作:
    # L. H1 m4 A( e  c. @0 Tmat = plt.matshow(matrix, cmap=plt.cm.Blues, alpha=0.5)    #cmap 指定颜色图色系,alpha透明度. Z& k' J- f; K/ t! v
    label = ["负例", "正例"]
    ; j7 ?% s! E0 ]+ H/ ?ax = plt.gca()
    / ~2 M2 C) O& h% ^: |ax.set(xticks=np.arange(matrix.shape[1]), yticks=np.arange(matrix.shape[0]),. l* L7 I# V8 V3 ~" b
            xticklabels=label, yticklabels=label, title="混淆矩阵可视化\n",2 T" N- \( j9 A& K2 Y* J% T
            ylabel="真实值", xlabel="预测值")7 ~; i$ T& m9 G- T4 _5 f
    for i in range(matrix.shape[0]):
    2 u5 M- F2 h9 U. n5 ?    for j in range(matrix.shape[1]):
    + Y9 F( a1 y$ ]- D* N        plt.text(x=j, y=i, s=matrix[i, j], va="center", ha="center")+ f' N/ ]$ V. \
    a, b = ax.get_ylim()! `' z4 X$ J0 ~
    ax.set_ylim(a + 0.5, b - 0.5)
    % a. e: X% }4 h( o8 J) z/ Jplt.show()
    % \5 b! U- D# u: S$ D! j! g7 M3 r0 r# @; z9 j' v9 A; ~
    3 s5 \% Z8 r  ~9 o7 ~' }
    代码解析:2 V2 d# Z7 ^) q
    matshow( ) 绘制矩阵,alpha 透明度
    6 S7 q! r' _, ?3 C6 c结果:/ d5 `) |* u$ D3 ]6 r/ h
    3.png ' T# O' W2 E* F
    练习:, w+ u+ g9 b! b4 Z7 X# r

    / B$ W5 }0 H0 o7 @' g* a关于混淆矩阵,说法正确的是( ABCD)。【不定项】, c7 M1 P' j5 r) V4 k
    A 混淆矩阵可以用来评估分类模型。, u. X1 a5 f! J2 l! r9 s8 f
    B 混淆矩阵中,TP与TN的数值越大,则分类的效果越好。0 p9 Q3 _7 h3 |& j0 F1 Y& ^/ U& N5 V
    C 混淆矩阵一行元素的和代表某个类别的实际数量。: c4 t# Z+ r5 `# i; L. z: N0 f
    D 混淆矩阵一列元素的和代表某个类别的预测数量。
    ' X8 F' ^6 C, R3、评估指标
    + M5 E' y/ V# ^% p4 f% i" L1 ^4 k% O& d) u- z- x# W
    对于分类模型,我们可以提取如下的评估指标:5 E8 x* |* B! j5 U# V- T

    2 q. \( d& ^! D正确率(accuracy); c) a% N7 a+ |7 p. p3 C0 m( t" \# N
    精准率(precision)
    + n: l9 ^" `% V( g+ n% ?0 ^召回率(recall)
    - r/ o5 v6 o0 Z! ~9 L9 z$ v# t4 @" QF1(调和平均值)/ t* w6 x2 {, @* I: f, c+ N
    3.1 正确率
    5 d! C! ^. H& V+ U* q 4.png
    0 d# E5 n8 E" r5 ~+ P  ]4 `正确率(准确率)定义如下:% W: z: P, P2 ]7 v4 C
    衡量所有样本被分类准确的比例。
    - O4 O! G0 T3 e- HAccuracy = (TP+TN) / (TP+FP+TN+FN)- c6 `; q5 |9 m- N( I
    - {5 i& ^4 v4 H& h6 t) a6 j
    预测正确的数量除以总数量。
    6 l1 Z  A( L3 E7 T
    9 x" K9 L, a0 f- x4 v9 M3.2 精准率
    1 p8 [9 y# K8 v' H* j 5.png
    9 P0 W' d* O: c8 ]. H查准率(精准率)定义如下:4 h9 k, e. `+ K) e2 K5 C9 b
    衡量正样本的分类准确率,就是说被预测为正样本的样本有多少是真的正样本。" U% ^$ @3 \1 Y7 r1 N7 X5 b- T
    Precision = TP / (TP+FP)
    * \# L  W7 t* M+ O* R7 N. o1 t( X) {# l" A
    精准率只考虑正例。
    : l7 r7 G" y! l5 l9 m" W! j
    6 h# i$ q0 ~3 w+ {! A6 \3.3 召回率: `, H' j3 d. h" q% J( ]' n
    6.png $ u4 s3 u  P, K4 v
    查全率(召回率)定义如下:/ x- B$ K5 D' }
    表示分类正确的正样本占总的正样本的比例。1 k4 Y9 e( m, @% u0 b  |3 `
    Recall = TP / (TP+FN)
    ( k& U" @3 H. B- O7 c
    1 J7 L+ C: z3 e$ y* U/ W* w; i3 J* Q" o
    3.4 调和平均值F1
    0 l' l* w9 J. I) U: T 7.png 1 L1 S: p! @# x$ e4 X! R
    F值(F1-scores)调和平均值F1定义如下:
    , t: k/ o0 T  `% V2 @- Z! n4 w, o) r精确率和召回率的调和平均。0 p2 V2 i: L, Z: z/ \/ |
    精准率Precision和召回率Recall加权调和平均数,并假设两者一样重要。
      h) }& ]  F& ?: F$ q$ ?; R
    * r2 G. h7 w2 h/ Q% S$ e% Y( cF1-score = (2Recall*Precision) / (Recall + Precision)% m+ |+ [7 J$ E5 v- E+ j
    ) `' Q$ }( x2 G( B4 S* g9 U
    精准率和召回率是一对矛盾的度量。一般来说,精准率高时,召回率往往偏低;而召回率高时,精准率往往偏低。通常只有在一些简单任务中,才可能使二者都很高。
    % G" P9 |" G$ f# F0 y) Y0 ~2 a最好的分类器当然是准确率、精确率,召回率都为1,但实际场景中几乎是不可能的,而且精确率和召回率往往会相互影响,一个高了另一个会有所下降,因此在实际应用中要根据具体需求做适当平衡。
    + c5 f5 p" J" L: M让我们做个练习加深下印象吧!( m$ {# I7 k0 V" N& w4 |* S: T
    ) o) K: E! i, E6 ?
    以下说法正确的是( C )。
    / q$ t$ U2 [3 e: [A 使用正确率去评估一个分类模型,效果会比精准率更好。
    $ B& g8 d. a  P/ W/ ?6 ~4 b6 NB 使用精准率去评估一个分类模型,效果会比召回率更好。7 n% h' }9 J  P4 t
    C 精准率与召回率通常要联合使用。
    / G  r) q4 b# hD 精准率与召回率如果有一个值较低,F1值也可能会较高。: V. S. _) n! t+ ~3 |5 k+ f$ ~, E
    如果精准率和召回率我们只能选择重视一个,我们会更看重( C )。" P2 c' q8 r/ a; o  T8 B* C& F
    A 精准率。9 |/ Y. u! A) ^0 K6 q) s3 v' g
    B 召回率。0 J; e% |6 V3 T
    C 具体场景不同,重视谁也会不同。! u+ h/ \8 ?8 N9 [+ }
    接下来我们通过程序来说明下:
    1 \% z0 \* y4 a- w- yfrom sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
    * F8 D# Y/ ]( n5 e5 Y# O) o) Q
    1 G& K" [; v, Pprint("正确率:", accuracy_score(y_test, y_hat))9 Z. {5 ~7 X2 U7 L
    # 默认将1类别视为正例,可以通过pos_label参数指定。
    : S, a7 c5 n) z0 A8 F" aprint("精准率:", precision_score(y_test, y_hat))
    7 K* ^9 V: K4 T* x, mprint("召回率:", recall_score(y_test, y_hat))
    2 ^+ M! }( }( x+ Fprint("F1调和平均值:", f1_score(y_test, y_hat))5 ^) `* e$ ~4 ?3 n  N3 Q
    # 我们也可以调用逻辑回归模型对象的score方法,也能获取正确率。* X) s0 |& E. ?3 e8 F7 l
    # 但是需要注意,score方法与f1_score函数的参数是不同的。& T- X; u) A- [& r  Y- n+ `( l! X! h
    print("score方法计算正确率:", lr.score(X_test, y_test))+ C6 I/ t6 ]2 b. [$ e

    4 t8 I' u" ?. `7 ?( m1 ]
    & |" d) j  W+ Q9 X" J  t3 f结果:3 |; X$ ]: x2 |' l% [  [9 l
    8.png
    / I0 L3 |5 [$ A7 M3 T# i) _* ^除此之外,我们也可以使用classification_report函数来查看模型的分类统计信息,该方法会返回字符串类型,给出相关的分类指标评估值。
    " B1 ?4 m1 d( ?1 ufrom sklearn.metrics import classification_report# T9 o4 P. Q4 C$ g8 N
    ; Z% G: C( v1 K% p! g% p1 @+ ~, a
    print(classification_report(y_true=y_test, y_pred=y_hat))
    9 w4 \3 n" U6 f3 ]6 j+ d" u5 h9 R. t: L9 l2 j! c) N6 D8 i5 u# c
    - T2 k  U" b* I: r4 s% c3 n4 l$ v
    结果:0 G6 A  f/ [, O5 g1 k9 h
    9.png 0 \9 l: l" ]) i* L  y, O

    5 \. {" E7 K9 z3 v练习:
    ; N* I0 Q- c* O. F( W  p
    / f& V0 p7 Y: h9 d* l) G1 d7 i如果使用精准率与召回率评估二分类模型时,我们应该将哪个类别设置为正例? (B)
    3 B% [4 V* {: D! Y  [" T3 xA 随意
    , M1 p* R8 f3 n% h* IB 关注的类别/ p& p5 ^9 E5 S; t$ l2 Q
    C 不关注的类别# j3 T$ K5 ]* U5 r  h& v3 L
    4、ROC和AUC8 F! R2 k. C( r' J
    ) u' f6 D. d* w' K( _
    ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。2 H: ]# `7 j- i

    ( o" @& e, l* y/ O3 W& R4.1 ROC曲线
    0 N$ r0 q5 G5 k0 A% X! s! e 10.png ! q; n) T) ?: ], W( Z. b
    ROC曲线(Receiver Operating Characteristic——受试者工作特征曲线),使用图形来描述二分类系统的性能表现。图形的纵轴为真正例率(TPR——True Positive Rate),横轴为假正例率(FPR——False Positive Rate)。其中,真正例率与假正例率定义为:
    ) {5 x: n) o7 ?7 O6 L5 N. B/ N# Y; h
    ROC曲线通过真正例率(TPR)与假正例率(FPR)两项指标,可以用来评估分类模型的性能。真正例率与假正例率可以通过移动分类模型的阈值而进行计算。随着阈值的改变,真正例率与假负例率也会随之发生改变,进而就可以在ROC曲线坐标上,形成多个点。
    + w9 _+ w3 S% ]/ w6 @# {
    2 K( h. d0 W; I9 hROC曲线反映了FPR与TPR之间权衡的情况,通俗来说,即在TPR随着FPR递增的情况下,谁增长得更快,快多少的问题。TPR增长得越快,曲线越往上凸,模型的分类性能就越好。
    . r! M5 n" a% Z+ l, x! P" Z' T4 I1 T1 g5 c* Q
    ROC曲线如果为对角线,则可以理解为随机猜测。如果在对角线以下,则其性能比随机猜测还要差。如果ROC曲线真正例率为1,假正例率为0,即曲线为与构成的折线,则此时的分类器是最完美的。) N( m9 U+ ], y% D) o

    - S" j$ r! ]' o& X+ [下图就是ROC曲线的一个示意图:8 U( q6 k3 a% y! ~8 R
    11.png + }, j4 m$ s; F7 r0 Z2 x5 b3 m+ g
    ROC曲线横坐标是FPR(False Positive Rate),纵坐标是TPR(True Positive Rate)6 `$ ^; s& Z& u- I
    接下来我们考虑ROC曲线图中的四个点和一条线。
    3 {/ K2 U: M9 j, @: }: {- [5 b( }+ f& A  @6 X, Q$ t. `1 ~' n( g+ O
    第一个点,(0,1),即FPR=0, TPR=1,这意味着FN(false negative)=0,并且FP(false
    5 r( k9 Q; ]# t/ A9 m5 |positive)=0。这是一个完美的分类器,它将所有的样本都正确分类。
    " N9 y: V2 y  [7 v3 Q8 R第二个点,(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。
    & u$ ~- i% C% h5 Y* C( \第三个点,(0,0),即FPR=TPR=0,即FP(false positive)=TP(true, ?/ G5 C0 m9 a% y% H; j
    positive)=0,可以发现该分类器预测所有的样本都为负样本(negative)。- N  h1 o; A; y! j
    第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。
    ; v, u: o  j5 u3 l" |: K如何画ROC曲线:3 |( X- ]9 e% A! h
    8 Y# B2 N% c, t: L. i
    对于一个特定的分类器和测试数据集,显然只能得到一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下wikipedia上对ROC曲线的定义:
    4 X# K$ B2 G& s
    4 w1 V9 G6 b( a" E4 {4 bA receiver operating characteristic curve, i.e. ROC curve, is a
    ! I8 n. X/ x/ e: Mgraphical plot that illustrates the diagnostic ability of a binary" x1 M. ]+ c- R6 r" J- p
    classifier system as its discrimination threshold is varied.9 U$ R/ L0 O. [7 x2 m
    译:ROC曲线是由一系列因区分阈值变化产生的点,用于描述二分类模型的判断能力
    $ u  l* d; Y8 i/ T# d8 T1 i9 Y这里的关键在于 “its discrimination threshold is varied” ,因为对于一个二分类模型,它的输出结果其实是判断这个样本属于正样本的概率值,假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率2 W* ]% e* _2 ?: @5 w' Q
    12.png / s3 F3 _  d2 ~; |! g% y
    然后我们按照样本的score值,从大到小依次作为阈值,当样本score值大于等于阈值时则判定为正样本,否则为负样本。; e  k2 d7 o$ ~. s+ I$ z
    例如第一个阈值取0.9,这时只有id=1的样本被预测为正样本,其余都是负样本,此时TPR=1/1+9=0.1, FPR=0/0+10=0。还例如:对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。8 u4 ?4 p/ T3 ~5 j5 [; W  j8 e
    / }& y+ U* y8 M2 j$ J0 t
    详细如下:. _4 Q$ l( i  O7 `, }% v
    13.png ( Z3 h: X1 v) y7 m3 G
    由此我们便得到了一组(FPR,TPR)的值,可以绘制出ROC曲线:
    8 ~  }$ w& }2 @/ g+ ~ 14.png 4 {6 L. i( J# k
    当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。
    $ D0 Z: D! U. Z
      M( x6 v) Z8 t3 b1 F2 R' f4.2 AUC' u2 R6 ]' f) ~9 }+ t' b- v
    15.png
    # r) M( }1 @7 }% a; ^AUC(Area Under the Curve)是指ROC曲线下的面积,使用AUC值作为评价标准是因为有时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。1 n: k% H4 `) H# P9 a% [: l

    + r7 t8 L8 M: j' a- l# S  f( }" aAUC是ROC曲线下的面积。2 l  i, w+ T5 C; @6 Z! C
    AUC的取值为[0.5-1],0.5对应于对角线的“随机猜测模型”。
    3 q: V: x" h- x5 ]; y8 x: |2 FAUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。
    : _$ b3 M) O& e5 S, X: f- O. k6 y6 Y9 `# {: l
    从AUC判断分类器(预测模型)优劣的标准:2 W7 W* T$ C# C+ E8 l; ]
    4 ^9 r; _% r$ b! h- L

    7 j" V2 d$ Z" n9 x! d+ D" P例如一个模型的AUC是0.7,其含义可以理解为:给定一个正样本和一个负样本,在70%的情况下,模型对正样本的打分(概率)高于对负样本的打分。
    $ k" r5 u$ w9 T* G% M4 s; R
    " }# Q' ~! v- {8 j三种AUC值示例:
    $ {7 s3 Z" r8 a( W' H8 D 16.png / l4 d3 k, Y; t" W4 d0 \5 z
    简单说:AUC值越大的分类器,正确率越高。8 h8 d8 T3 n: m; R  M6 {

      N; d5 x, R, G( F. ]5 G那么为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?
    / J) u& A, n1 ]  @" z, ]因为机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。也就是说AUC越高说明阈值分割所能达到的准确率越高。
    ; B1 m+ D/ o, E+ Y! X$ C$ a' w2 ?5 B; Q- N6 N" d- R
    小练习:% r8 ]7 A3 ~; D* r9 c. o1 T

    ; r7 @+ X8 h/ _以下说法正确的是( ABD)。【不定项】  B3 K6 M1 J/ J: U" U2 y4 w
    A 随着阈值的降低,TPR与FPR都会增大。. i& P) b# }# ^+ ]3 k
    B TPR与召回率的值是相同的。
    5 x8 L; E4 d" g: Q% n/ a) |; j$ `C 如果AUC的值非常低,例如,0.1,则该模型效果很差,也很难调优。9 d9 {- A; \, t( n, \
    D 无论是什么分类模型,ROC曲线一定会经过(0, 0)与(1,1)这两个点。) D  o  e, C4 W/ n8 b  |& V- ]
    4.3 ROC曲线程序示例$ v, B7 O' t3 j' e0 w0 F
    0 n# n6 Y3 D( U3 a1 T( [5 ?
    我们首先来看一个简单的程序示例,借此来说明sklearn库中,ROC曲线的实现细节。2 ]. p8 V0 ]( U; }! i! L

    9 h! u: s1 F% p4 A- G6 }! [; H4.3.1 roc_curve函数的参数
    8 W" A" l5 n5 Simport numpy as np: k2 |5 b5 N) \- Q9 f
    from sklearn.metrics import roc_curve, auc, roc_auc_score8 g' b7 W# ^: A" ^
    y = np.array([0, 0, 1, 1])
    " z, m& H0 Q; `  Z* l: Lscores = np.array([0.2, 0.4, 0.35, 0.8])
    ! g& z; M' \& h4 \8 T# K2 h# 返回ROC曲线相关值。返回FPR,TPR与阈值。当分值达到阈值时,将样本判定为正类,9 Z6 C4 c: U8 t: ^% b4 j4 @7 v9 i
    # 否则判定为负类。) a" B' O  L% ~8 e: ~1 u% v+ i( e
    # y_true:二分类的标签值(真实值)。
    " A4 q- {6 n3 f* b  A9 O, K# y_score:每个标签(数据)的分值或概率值。当该值达到阈值时,判定为正例,否则判定为负例。+ P/ v7 R* K" O; h
    # 在实际模型评估时,该值往往通过决策函数(decision_function)或者概率函数(predict_proba)获得。1 B+ M; f! Z$ \: L$ A# v3 Z% ]! K
    # pos_label:指定正例的标签值。# K4 |7 e1 r# R3 W; s
    fpr, tpr, thresholds = roc_curve(y, scores, pos_label=1)9 u  E; o" P3 C2 o- ]3 ]
    print(f"fpr:{fpr}")
    : h$ b: Y. Y& O1 Y( lprint(f"tpr:{tpr}")# i! E4 y2 Y% ]/ G" p: A- v' Z& j, \
    print(f"thresholds:{thresholds}")
    : _- J; A& u8 R4 D# auc与roc_auc_score函数都可以返回AUC面积值,但是注意,两个函数的参数是不同的。2 ]; e* ]2 F0 y9 E( P- v- I
    print("AUC面积值:", auc(fpr, tpr))
    - L; P) M) N7 O! c& t" P0 H: i* ?: cprint("AUC面积得分:", roc_auc_score(y_true=y, y_score=scores)). H* }, c. q3 h& a$ ~2 X2 g) }: I
    #### 3.3.2 roc_curve函数的返回值( E( u; f7 g+ N  T7 x) W) A6 U

    6 O9 j: n' V. Q% e6 ~2 `结果:* ~  r+ w% o0 F! g7 x. B* r5 V
    17.png 1.8 是怎么来的?
      \3 p, L$ {% G7 R9 R. k0 ?( B! O1.8是阈值中最大值+1(0.8+1)得来的。为什么这么算?因为要使得最开始得到的所有阈值都不会超过这个值,才能过(0,0)和(1,1)这两个点。0 X+ A! D, L% b' C) L
    - P$ i1 l2 m2 ^' [' s" ^3 q' N  d
    4.3.2 roc_curve函数的返回值
    & n' {* y/ Q% k- \3 {2 e; W. k! c5 L, [6 e
    roc_curve函数具有3个返回值:
    + r( W1 C- b# e( @6 [
    ( [( Q& _' i' M, H9 Y: Z$ z- kfpr 对应每个阈值(thresholds)下的fpr值。( t8 [# L4 S2 X/ m; ~4 @" [. w
    tpr 对应每个阈值(thresholds)下的tpr值。% _" s: Q6 ~2 d6 H& s$ h& N- j
    thresholds 阈值。
      A+ E/ T# F  L: T' {5 A+ Q) lroc_curve函数会从y_score参数中,选择部分元素作为阈值(选择哪些元素属于实现细节,会根据sklearn版本的不同,也可能会有所差异。),然后进行降序排列,作为roc_curve函数的第3个返回值(thresholds)。同时,根据thresholds中的每个元素(阈值),分别计算fpr与tpr。( X- Y7 R2 I, \% s$ Q2 M
    iris = load_iris()
    3 @& _; U! n* c% QX, y = iris.data, iris.target: z$ N( b3 K( n8 H* Q" A$ K  R; z) T( f
    X = X[y != 0, 2:]
    # }& t0 b. h- p8 ry = y[y != 0]. e5 G0 j9 P; h* A8 M
    y[y == 1] = 08 p7 h, L& E9 o# @: h
    y[y == 2] = 1
    - x- C1 D! r0 n3 J& o3 x, IX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25,6 Y8 R. N  v/ {- Q+ ~7 q
    random_state=2)5 V- N8 k- ^8 o' M
    # lr = LogisticRegression(multi_class="multinomial", solver="lbfgs")
    6 {# v( K$ ?- dlr = LogisticRegression(multi_class="ovr", solver="liblinear")) @" H' K2 V5 `) L) c' @4 S' a
    lr.fit(X_train, y_train)
    0 Y4 U& z* l8 U& f% v6 e# 使用概率来作为每个样本数据的分值。
    # d9 T. z% h# H: Y6 f$ Vprobo = lr.predict_proba(X_test)- ]$ x$ E$ f+ `4 n% B" Y' n! C
    fpr, tpr, thresholds = roc_curve(y_true=y_test, y_score=probo[:, 1],
    % y, o$ g7 r$ Zpos_label=1)
    9 z% w5 u, y1 D. pdisplay(probo[:, 1])
    0 _5 g  A# E4 l; R  E& Y5 C6 R# 从概率中,选择若干元素作为阈值,每个阈值下,都可以确定一个tpr与fpr,. |1 f, u1 n! k: G% F4 b) ]) L
    # 每个tpr与fpr对应ROC曲线上的一个点,将这些点进行连接,就可以绘制ROC曲线。
    , r) }! V" _- C- Y& B! Wdisplay(thresholds)
    / k. J, [7 p! J! p  r7 h8 l2 a, t0 A0 v
    结果:" u  [/ L3 R+ ~( W  Y
    18.png / {) y4 }; u+ G1 g* c

    2 k, a& Z! Q  [  J/ q! ^& e% l
    * k# X# y+ ?" b# 随着阈值的不断降低,fpr与tpr都在不断的增大。! P7 {" o. ~7 Q
    fpr, tpr" N  J# t, O' \- i1 U( @
    % d0 _0 j. h9 s
    结果:
    ! v  c" ]2 a0 _ 19.png
    9 p% R/ q7 l; q# k6 B( b. R3 O, J! u1 y5 \# w
    4.3.3 绘制ROC曲线4 U+ S% A9 Y1 g% a( ~/ Y& J
    有了fpr与tpr的值,绘制ROC曲线是非常容易的,只不过是最简单的一个plot而已。
    $ _# j6 z, k% o0 I# N* Eplt.figure(figsize=(10, 6))/ L1 ]- J( G. T4 g" r9 J, N
    plt.plot(fpr, tpr, marker="o", label="ROC曲线"). \! E4 k( J. X* l4 q6 {  C2 w
    plt.plot([0,1], [0,1], lw=2, ls="--", label="随机猜测")
    9 O% `8 A8 y; j$ s9 e* G& s9 Eplt.plot([0, 0, 1], [0, 1, 1], lw=2, ls="-.", label="完美预测")
    6 X8 O; V$ {2 o$ }) [2 Aplt.xlim(-0.01, 1.02). s( N/ m, b8 i( k* T$ X) k0 ~
    plt.ylim(-0.01, 1.02)
    4 F. y8 e6 T; g: r$ J2 }8 v/ ]4 O6 Splt.xticks(np.arange(0, 1.1, 0.1))
    5 B  {! S2 O1 ?) E, e5 Y- nplt.yticks(np.arange(0, 1.1, 0.1))( U9 P; H% S1 v1 N7 i- o9 D6 y
    plt.xlabel("False Positive Rate(FPR)")) E: h4 S$ T  x- {. s
    plt.ylabel("True Positive Rate(TPR)")
    8 f$ B7 x9 T9 t3 P- Wplt.grid()
    5 r. X7 @% c7 s2 E' q. o8 cplt.title(f"ROC曲线-AUC值为{auc(fpr, tpr):.2f}")6 d+ n! n" Q- U2 I- c" f5 w
    plt.legend()
    1 ?4 z2 S# u# I8 I# [6 ^plt.show(), V1 S  m" R9 S8 ]7 V0 p$ A
    20.png
    * j- X$ V4 r0 L2 r3 g$ e, @8 Z6 w4 B, p. R8 w8 Y5 v
    5、总结" Q) x( J* L% t- y( ~6 V, w

    ! B# Y) s. k, t6 t+ @混淆矩阵的含义。
    ; M% X0 D8 k* b- L' J/ u. C正确率,精准率,召回率与调和平均值F1的含义。* K5 N  ]* ?* ^# H# v
    ROC与AUC。
    ! J; s& j+ O, N+ W; a6 K- R4 j
    ( C1 w$ v& _6 l9 p! z. R参考资料:7 G) F3 H- j" D7 x1 p7 ~
    1、https://blog.csdn.net/zuolixiangfisher/article/details/81328297  J6 M# X1 ^: C3 ?- n5 P4 t6 R
    2、https://www.jianshu.com/p/2feb008391549 D4 `3 l2 J# e. m$ A3 g: r0 v
    3、https://www.cnblogs.com/kamekin/p/9788730.html! r# F  s4 `' Y
    4、https://www.jianshu.com/p/c61ae11cc5f6
    . d5 g$ f( M. w————————————————' q3 M4 u: Y+ V; }. B
    版权声明:本文为CSDN博主「糖潮丽子~辣丽」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。8 G1 Z& v% i" B
    原文链接:https://blog.csdn.net/qq_39783601/article/details/1056007002 g& @. D' [% z5 G+ ~

    8 D2 N+ z- c! g' A7 @( H& }# W9 M0 C; [) m
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信

    0

    主题

    1

    听众

    11

    积分

    升级  6.32%

  • TA的每日心情
    开心
    2020-4-19 10:15
  • 签到天数: 2 天

    [LV.1]初来乍到

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-7-15 02:03 , Processed in 0.911169 second(s), 59 queries .

    回顶部