在线时间 1630 小时 最后登录 2024-1-29 注册时间 2017-5-16 听众数 82 收听数 1 能力 120 分 体力 563400 点 威望 12 点 阅读权限 255 积分 174243 相册 1 日志 0 记录 0 帖子 5313 主题 5273 精华 3 分享 0 好友 163
TA的每日心情 开心 2021-8-11 17:59
签到天数: 17 天
[LV.4]偶尔看看III
网络挑战赛参赛者
网络挑战赛参赛者
自我介绍 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
群组 : 2018美赛大象算法课程
群组 : 2018美赛护航培训课程
群组 : 2019年 数学中国站长建
群组 : 2019年数据分析师课程
群组 : 2018年大象老师国赛优
1 d$ d7 u3 \9 B s0 I 详细讲解分类模型评估 分类模型评估
+ ?% o b" O8 z' Z3 x- b
, S" R# _2 R+ l% {+ L 1、分类模型
' x5 L9 O R0 f' \; k }; X 主题:如何对分类模型进行评估 |/ }. b& ]& L ?# s/ v" R- U
目标:
; X& e4 Q% q2 Y2 Z5 E; k( e& _/ ?% x9 ` 2、混淆矩阵0 ]3 C: g8 ^8 C
3、评估指标, {2 e# X: M0 |/ g5 ~3 E
3.1 正确率
) x) y* s+ v- ^$ w' E 3.2 精准率, z* _1 g, D( E, S4 T( M
3.3 召回率$ _4 C! n4 W* |$ Y2 k
3.4 调和平均值F1# }: W" m/ `$ h7 i' E
4、ROC和AUC
: N2 j* b% v, ]/ k" B 4.1 ROC曲线9 O- D5 \/ P* _8 { V
如何画ROC曲线:
4 L* o8 s: s9 j 4.2 AUC7 ~6 n3 H4 w2 [
4.3 ROC曲线程序示例 `# k5 `3 F! f- Z" h& M$ `. b
4.3.1 roc_curve函数的参数
0 E1 R! z+ s, L( v 4.3.2 roc_curve函数的返回值
! }4 L3 ?' P- a 4.3.3 绘制ROC曲线( r+ L; E4 O0 [, _, k; M) @
5、总结6 F. u( U( n: g. n& u2 f
1、分类模型
2 T5 h1 f) N( X 4 P2 W8 [" m: y0 t" b2 g0 T7 E
分类问题在我们日常生活中处处可见,比如我们对帅哥的分类,可能对帅哥分为非常帅和一般帅。比如我们平时刷淘宝,淘宝根据我们平时的喜好给我们推送产品,那我们就会把产品分为感兴趣和不感兴趣两类。' \5 C9 [' B ]# O9 k0 k
上述所说的问题就是典型的分类问题,确切的说其实就是二分类问题。
& u; [+ @9 b0 M 能够解决这些二分类问题的数学模型就被称为二分类模型。/ ]; Q5 \. ~( x1 P# S
用数学的方式表达就是,给定自变量X,代入到我们的分类模型F,会输出因变量y,y的取值为0或1,其中0代表负样本(一般帅的帅哥、不感兴趣的推送),1代表正样本(非常帅气的帅哥、感兴趣的推送)。, n7 N: a4 Q" u H
+ p, d( l/ r9 K 主题:如何对分类模型进行评估
2 t' V, ]1 R7 |0 G% s6 G
. r" B9 h. i( p( W" ^) P6 G2 B1 | 目标:0 Y( X. R5 _6 I b e5 j0 o
* O& d8 r6 w9 b3 r$ S9 A
能够熟知混淆矩阵的含义。
' N) d& X. y- O! U+ E7 \ 能够使用各种指标对分类模型进行评估。
* B( t4 P+ @; W. g1 L7 ?! @ 能够独立绘制ROC曲线,并熟悉该曲线细节。$ Q8 ^: C8 R2 U. q. j
能够对样本不均衡进行处理(扩展内容)。
8 d; E, B, e4 A6 h 2、混淆矩阵! t$ D% `3 B! ?. F
3 Y9 Z, o# m$ p4 w7 ^/ d0 J 混淆矩阵,可以用来评估模型分类的正确性。
1 D: z* o& @- `9 ?/ L6 Y 该矩阵是一个方阵,矩阵的数值用来表示分类器预测的结果,包括真正例(True Positive),假正例(False Positive),真负例(True Negative),假负例(False Negative)。
. ~% K, ]. I+ N6 ~6 j
. P3 s: ?9 P G; N a% x; j 矩阵的形状是2 x 2,其中, - 矩阵的左上角表示,预测值为1,实际值为1(True Positive,简称TP); - 右上角表示预测值为1,实际值为0(False Positive,简称FP); - 左下角表示预测值为0,实际值为1(False Negative,简称FN); - 右下角表示预测值为0,实际值为0(True Negative,简称TN);/ ]( n$ C+ q. l/ }4 \
: ?6 c& E( r; j 真负例(TN)+ 假正例(FP)——每个类别真实存在的负例的数量# a1 d Y% q$ k- O7 Z/ {
假负例(FN)+ 真正例(TP)——每个类别真实存在的正例的数量: b, u3 g2 t( V# @$ p' U9 J% R
真负例(TN)+ 假负例(FN)——每个类别预测的真负例数量
) J2 X+ }' N2 _. @ 假正例(FP)+ 真正例(TP)——每个类别预测的真正例数量2 ?$ i6 Z4 L1 V8 t/ S* _5 p
其中:
: o( _8 w3 a# i, k
* f' L8 M, {/ R5 W& w! L* J6 n TP:真正例,实际为正预测为正;
. `- S. X, {( |6 Z8 k' |6 t FP:假正例,实际为负但预测为正;
0 T% e: p3 _ k5 o FN:假反例,实际为正但预测为负;* Z w V# B0 n9 X
TN:真反例,实际为负预测为负
- r, ] L# g4 J. O" R 接下来,我们通过数据来看下鸢尾花的混淆矩阵:- Q5 i; I2 b3 V$ `- n) n
import numpy as np
/ N4 K% E, U, t }! n+ g: f" _7 V from sklearn.datasets import load_iris
' ?" {1 G. }$ u2 t: u: M8 g5 M: E from sklearn.linear_model import LogisticRegression! a* d0 G# K2 d+ F! S+ e' M$ c
from sklearn.model_selection import train_test_split
1 b* x/ |* Q+ C: @ # 混淆矩阵
, H2 G" U+ V% U from sklearn.metrics import confusion_matrix
* W p% X# j, z- b* s7 b, z7 @: N# | import matplotlib.pyplot as plt
1 }- r p. c! t0 `# C8 s import warnings
. s* G( U2 D7 X. J d! }5 ` 9 g- {, p% u. x* l7 O' G
plt.rcParams["font.family"] = "SimHei". H0 l3 a: E9 P+ d
plt.rcParams["axes.unicode_minus"] = False
- A2 L0 ~' t4 F7 W2 W9 [" M* d# y plt.rcParams["font.size"] = 129 |; \3 a& A' v' k/ @7 O2 l
warnings.filterwarnings("ignore")
6 e" _ B& J. Z% [! r0 h
' _0 | U( W9 D0 D iris = load_iris() #导入鸢尾花数据集* z* a% \* b/ E8 N) e0 m
X, y = iris.data, iris.target
7 Y- I) z; ^& Q& j. H: T/ i. p: w X = X[y != 0, 2:]6 x' n* d% t4 _6 r+ V2 \' M
y = y[y != 0] ?$ N4 m; M+ Y7 v
y[y == 1] = 0
% V# S5 f$ G/ ^8 {+ u, O5 E- G y[y == 2] = 1
: Q( A3 r; y/ _$ p9 v9 D1 H6 O5 W: X X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)
! P' Q5 \; j. W lr = LogisticRegression() #使用逻辑回归. K& a6 O0 A. h a6 m i
lr.fit(X_train, y_train)( @+ U0 Y/ |& v, R5 j3 ?& d- `
y_hat = lr.predict(X_test)* h+ [" N4 a5 x! {7 _! T9 J
# 根据传入的真实值与预测值,创建混淆矩阵。
. Y. |! p8 \9 Q matrix = confusion_matrix(y_true=y_test, y_pred=y_hat)
h( b' D; `! w' W6 S print(matrix)
G. z- ^3 P& [) u 4 @- Z1 d0 C% ^8 q) W" s' E) R
3 d9 N# Y# Q5 u; q2 I8 m- Y
输出结果:
9 t8 e0 K$ m7 i0 k# P
1 }% \+ o2 z; j, A
我们还可以对其进行可视化操作:
0 l. Q7 o: l4 j mat = plt.matshow(matrix, cmap=plt.cm.Blues, alpha=0.5) #cmap 指定颜色图色系,alpha透明度* f6 r& s2 f$ ^: y+ E+ t- D$ `: C
label = ["负例", "正例"]
; B1 N' {! w; o ax = plt.gca()# r& k) r3 o% P6 p3 B5 n
ax.set(xticks=np.arange(matrix.shape[1]), yticks=np.arange(matrix.shape[0]),8 g" n$ D3 b) @: C7 d
xticklabels=label, yticklabels=label, title="混淆矩阵可视化\n",
# B' Z2 U5 M% c: T& n% B ylabel="真实值", xlabel="预测值")
* B9 ~: T8 g5 Q: k- _5 c C1 l for i in range(matrix.shape[0]):# M- Z f" n( c7 U$ L
for j in range(matrix.shape[1]):
( X( Y/ }+ A9 \' D4 Q plt.text(x=j, y=i, s=matrix[i, j], va="center", ha="center")% C; a# Q g7 y3 p
a, b = ax.get_ylim()
8 [! F* i, ^ U: _& g) a ax.set_ylim(a + 0.5, b - 0.5)
" N, |5 W+ h# N. g3 [ plt.show()9 [2 j- d% O5 p+ w- I' W4 \
" X2 o8 a& g) I% `. O
0 e& B9 o4 {/ g' ]& }% Y4 j 代码解析:
& H8 G. x# A) [! T1 j3 \: @6 ] matshow( ) 绘制矩阵,alpha 透明度1 m$ C7 ~- c( J! x2 k3 Z
结果:
6 Z. a9 L9 m6 S2 J9 ~; U$ B
# O( c9 ~* R$ h! {" j
练习:" `' }7 \. G3 I, e) G
$ i6 P& p9 `! ?$ z
关于混淆矩阵,说法正确的是( ABCD)。【不定项】! f. D; A# g1 X4 K) c
A 混淆矩阵可以用来评估分类模型。; a; M1 B4 X' G- A% I5 H
B 混淆矩阵中,TP与TN的数值越大,则分类的效果越好。# q0 L! G- e! C
C 混淆矩阵一行元素的和代表某个类别的实际数量。
) H+ |1 q" J% b' h; X6 X D 混淆矩阵一列元素的和代表某个类别的预测数量。0 I$ }! N# J5 i0 P o6 v
3、评估指标
4 i5 l# E" ^% Z# Q! S. D) n
2 ~% U3 L4 x( O+ \ 对于分类模型,我们可以提取如下的评估指标:
* G1 R- A, q& \- W9 k - z( e1 t) O& Y/ \ x% J
正确率(accuracy)# u m. k, k6 i8 M( \# S
精准率(precision)! U8 Z& T3 D: W! G7 i5 r
召回率(recall)
$ i) d+ ^* P- v, R: F$ Z F1(调和平均值)
7 v3 t m- d. H" E, K 3.1 正确率7 x9 d' n9 ?% R& K e' e8 H% e# s# d
2 k' F) r" f# t7 H3 S5 E" c# Q 正确率(准确率)定义如下:
' s/ O: q- t% t+ T# d) ]- F 衡量所有样本被分类准确的比例。: R6 L- H$ ]& s. c
Accuracy = (TP+TN) / (TP+FP+TN+FN)
5 k4 K6 K6 C( u( Q1 I9 t* E+ t 9 D; X4 w6 n/ |; ?7 U; o% O# w
预测正确的数量除以总数量。% o8 l) R) D6 m' |0 t3 i2 g
/ \% c6 E2 S9 C. ^) W 3.2 精准率
) K; K8 f7 f* Q) z, L* u) x
4 N0 {6 a) [) G# ?7 p2 a
查准率(精准率)定义如下:. P1 k* y7 `9 M$ w' m9 V
衡量正样本的分类准确率,就是说被预测为正样本的样本有多少是真的正样本。
% d* y* R: R- _) g3 h0 W Precision = TP / (TP+FP)9 j2 E+ K7 P l3 w
* J$ B7 y% t/ x. _1 A5 j
精准率只考虑正例。: k8 M/ l5 I9 u2 [
; h& Q j5 j& c$ t( K1 t 3.3 召回率
# I8 v7 R1 k4 l5 Z6 o
" E1 `4 ]1 \9 M/ Y/ T3 a
查全率(召回率)定义如下:( ~7 p) I# [+ B6 e
表示分类正确的正样本占总的正样本的比例。7 t: [ j* w5 w4 D4 D
Recall = TP / (TP+FN)0 y) x! [, ^! V2 t) n1 X+ T
6 x3 ] s, L4 p& p
4 B9 n7 N- f% o9 z! r
3.4 调和平均值F1
5 ?2 p) \) C1 N6 n
! w) y# C" |' z2 N4 l4 e6 k" j
F值(F1-scores)调和平均值F1定义如下:8 K- L1 ^, [( H9 U, q6 K
精确率和召回率的调和平均。) D I" [2 ~$ M4 H) @6 y
精准率Precision和召回率Recall加权调和平均数,并假设两者一样重要。' R" Y7 A8 S z1 E8 s2 ~) b( ^ [, _& ]* u
; r9 P2 N9 S: t2 H7 e1 }# z F1-score = (2Recall*Precision) / (Recall + Precision)9 m: ?6 N0 f' M
$ A6 R; @; M- ^, g: v
精准率和召回率是一对矛盾的度量。一般来说,精准率高时,召回率往往偏低;而召回率高时,精准率往往偏低。通常只有在一些简单任务中,才可能使二者都很高。
7 W- N) h* \4 W1 y( h 最好的分类器当然是准确率、精确率,召回率都为1,但实际场景中几乎是不可能的,而且精确率和召回率往往会相互影响,一个高了另一个会有所下降,因此在实际应用中要根据具体需求做适当平衡。
I3 U9 Z) l Q8 I& K3 c4 v' { 让我们做个练习加深下印象吧!9 t$ R* l \! Z
( n7 ~- S7 _- l7 @. W
以下说法正确的是( C )。
, u. |) H, X( u) R A 使用正确率去评估一个分类模型,效果会比精准率更好。
o; _# A o/ l. }6 m- e) I3 | B 使用精准率去评估一个分类模型,效果会比召回率更好。
' `1 ]9 _. E K* Z C 精准率与召回率通常要联合使用。( e# X5 W7 h0 z9 E# j, B
D 精准率与召回率如果有一个值较低,F1值也可能会较高。
" B* v9 e9 Z9 {2 F 如果精准率和召回率我们只能选择重视一个,我们会更看重( C )。
2 p/ I5 g# O( ~( `7 n3 r3 U7 r A 精准率。" B6 `- h, e! ~" N; o4 c
B 召回率。
; u; q2 z4 S, s* k. u2 g C 具体场景不同,重视谁也会不同。8 ]6 e3 C4 F+ M$ r! s
接下来我们通过程序来说明下:$ W c# H7 s: Y% c
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score# Q* i- f% B1 _8 w
6 o( H7 I; P) ?" {& q7 j9 ]' O+ T0 _
print("正确率:", accuracy_score(y_test, y_hat))9 F" @' Y$ J) {' X6 m
# 默认将1类别视为正例,可以通过pos_label参数指定。6 q" v# `# m0 |8 `8 g+ N
print("精准率:", precision_score(y_test, y_hat))
0 G/ L7 F% B# ]6 F6 T: N8 D1 d+ D+ @ print("召回率:", recall_score(y_test, y_hat))( ?6 P& v1 Y2 h- J
print("F1调和平均值:", f1_score(y_test, y_hat)): h0 Y% J2 B1 h5 e
# 我们也可以调用逻辑回归模型对象的score方法,也能获取正确率。- O6 T9 |; _- v9 }+ |4 w
# 但是需要注意,score方法与f1_score函数的参数是不同的。
1 t) M( R" H/ D( N: S% k print("score方法计算正确率:", lr.score(X_test, y_test))
6 g9 U T* C+ u: @- \$ X$ @ ; L; P$ o( e) p: G, s5 y
) I z( D% I( j( d, y6 h! ~; h9 ` 结果:
/ S9 W* f- u9 g/ D5 W" }; Z
) E/ ]0 _. ~. f* R" {$ U/ o. G4 T) Q
除此之外,我们也可以使用classification_report函数来查看模型的分类统计信息,该方法会返回字符串类型,给出相关的分类指标评估值。! l! P9 e6 E! P. [, h
from sklearn.metrics import classification_report* V, h {( X* G
5 y4 w/ D" n! [3 u0 Y$ s$ l8 J
print(classification_report(y_true=y_test, y_pred=y_hat))- o5 V* b6 O& s+ ^8 n
! |' T& K# {, O5 i5 z $ ~2 M' ?/ l2 h' O5 N8 p
结果:& H( Y u4 A+ g' Q3 n
) z; A) C6 m* V4 s+ @! O
1 N/ t3 q4 d; r* K 练习:
/ q. r" j" T1 S) m " C3 u* ] {% v! N' c4 l8 {
如果使用精准率与召回率评估二分类模型时,我们应该将哪个类别设置为正例? (B)
7 D$ V# a! |5 r* e8 H6 T& c5 ? A 随意
! k9 W) c* W7 A) Y+ e, J2 `+ m i7 l. ~ B 关注的类别
" [/ d9 l$ C# h% E# c: b C 不关注的类别
5 t1 O& a0 E" z- J& E0 u& x 4、ROC和AUC
" x' m& G& ~% V2 ^0 P* }
( }* K, ~1 Q8 w% ?: a ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣。
+ i. }3 c$ e6 U9 w% e7 a5 D7 i
5 F% `; s3 J/ r) @9 Z# b 4.1 ROC曲线! I; y& E# r8 J- J4 h, c5 `
: m) o% t1 v* p, o. Q0 S/ J ROC曲线(Receiver Operating Characteristic——受试者工作特征曲线),使用图形来描述二分类系统的性能表现。图形的纵轴为真正例率(TPR——True Positive Rate),横轴为假正例率(FPR——False Positive Rate)。其中,真正例率与假正例率定义为:& p2 W3 o' u7 q \! m* ?
- G6 E; e" S, V5 N/ ?% f$ J8 v* d
ROC曲线通过真正例率(TPR)与假正例率(FPR)两项指标,可以用来评估分类模型的性能。真正例率与假正例率可以通过移动分类模型的阈值而进行计算。随着阈值的改变,真正例率与假负例率也会随之发生改变,进而就可以在ROC曲线坐标上,形成多个点。
* u& z0 P) h) m: O& r$ a 4 b. L) z/ x& C
ROC曲线反映了FPR与TPR之间权衡的情况,通俗来说,即在TPR随着FPR递增的情况下,谁增长得更快,快多少的问题。TPR增长得越快,曲线越往上凸,模型的分类性能就越好。; {0 I. E& A6 k5 i X$ D
6 l% h5 J5 k% E2 [ ROC曲线如果为对角线,则可以理解为随机猜测。如果在对角线以下,则其性能比随机猜测还要差。如果ROC曲线真正例率为1,假正例率为0,即曲线为与构成的折线,则此时的分类器是最完美的。( v4 a; @ p% `
4 }; U9 u+ d1 y3 M, A I
下图就是ROC曲线的一个示意图:
0 v/ O9 Z v7 k& f; q
5 k. a& F" b' q2 `- Y U. @
ROC曲线横坐标是FPR(False Positive Rate),纵坐标是TPR(True Positive Rate)
9 [# s5 x) \/ d& ?6 L 接下来我们考虑ROC曲线图中的四个点和一条线。
5 n; v" z3 _9 {5 t/ Z; }" g " p9 w( p6 X3 t/ k. g
第一个点,(0,1),即FPR=0, TPR=1,这意味着FN(false negative)=0,并且FP(false4 K0 F+ m% j8 E4 c
positive)=0。这是一个完美的分类器,它将所有的样本都正确分类。
5 K Z) E6 @- z, t* v 第二个点,(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。
' K# w/ G5 w$ {' ]7 j$ z% { 第三个点,(0,0),即FPR=TPR=0,即FP(false positive)=TP(true2 k% v# e4 @7 ]5 c
positive)=0,可以发现该分类器预测所有的样本都为负样本(negative)。
5 o N- |; S* Q# @4 W0 J3 f# J' v 第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。
9 [" E2 @( U$ _ x4 Z* u4 Y6 } 如何画ROC曲线:
7 S* ]& d! W8 O$ p, ?" P& L7 U, R ) |( L% g. Q- P6 f6 a
对于一个特定的分类器和测试数据集,显然只能得到一组FPR和TPR结果,而要得到一个曲线,我们实际上需要一系列FPR和TPR的值,这又是如何得到的呢?我们先来看一下wikipedia上对ROC曲线的定义:" ~$ K) c5 i: ]1 N% W# S
# z; k) p' K2 E; n/ ]* ?" Y* G w A receiver operating characteristic curve, i.e. ROC curve, is a
3 |. @2 K; A5 c graphical plot that illustrates the diagnostic ability of a binary
( {! n2 _# L/ f' n6 ~7 i7 v classifier system as its discrimination threshold is varied.9 G8 t% c) h9 L* `! \
译:ROC曲线是由一系列因区分阈值变化产生的点,用于描述二分类模型的判断能力
6 {- W2 N2 U' U 这里的关键在于 “its discrimination threshold is varied” ,因为对于一个二分类模型,它的输出结果其实是判断这个样本属于正样本的概率值,假如我们已经得到了所有样本的概率输出(属于正样本的概率),现在的问题是如何改变“discrimination threashold”?我们根据每个测试样本属于正样本的概率值从大到小排序。下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率
6 A I j+ i% a- h5 i" _* x
/ G7 u# \- H4 ?) `+ P2 ?4 E# e 然后我们按照样本的score值,从大到小依次作为阈值,当样本score值大于等于阈值时则判定为正样本,否则为负样本。0 v: F0 r$ k, }/ Y9 R v
例如第一个阈值取0.9,这时只有id=1的样本被预测为正样本,其余都是负样本,此时TPR=1/1+9=0.1, FPR=0/0+10=0。还例如:对于图中的第4个样本,其“Score”值为0.6,那么样本1,2,3,4都被认为是正样本,因为它们的“Score”值都大于等于0.6,而其他样本则都认为是负样本。- ~2 m( \, H. C3 c
1 t5 B& z2 s$ J& w 详细如下:
1 }. O* J* c; q
3 l' p( }# ~4 ^" _, q 由此我们便得到了一组(FPR,TPR)的值,可以绘制出ROC曲线:0 J/ P5 P2 i$ D4 [0 W
5 C% ~2 |- B$ L! W7 G6 f; Z; J+ J 当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。. z3 k; d0 R4 i
7 C4 J1 t9 z5 J( S& Z- F 4.2 AUC
- L1 F+ L! d# M, d* s. h2 U H) R# Y
; B) p6 m. ]6 K1 W6 r# Y
AUC(Area Under the Curve)是指ROC曲线下的面积,使用AUC值作为评价标准是因为有时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。
& m+ k1 F. l1 `: W: C$ Q: L : l# y+ n. ]: Q8 o/ ?# c
AUC是ROC曲线下的面积。( `5 y; r" N# H) T2 y! b5 o
AUC的取值为[0.5-1],0.5对应于对角线的“随机猜测模型”。! a& P {" `$ v: \% q/ @. O) w
AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。* o4 L0 r* [! R0 z8 S
" b4 B+ v0 A4 ^# J 从AUC判断分类器(预测模型)优劣的标准:
. a1 L- s2 R0 S- l$ B t2 m6 C$ {" j2 e9 z1 P. ^
% E S+ x$ o% y/ k 例如一个模型的AUC是0.7,其含义可以理解为:给定一个正样本和一个负样本,在70%的情况下,模型对正样本的打分(概率)高于对负样本的打分。
& i) x9 x! t0 g% K/ E) s
# ^5 E, x* W9 M" d' y: W5 ~* x1 t 三种AUC值示例:# J3 ^7 g1 j$ r
5 @/ H: B9 N- f+ X 简单说:AUC值越大的分类器,正确率越高。7 u4 R( M: J& w) S/ y7 F- I" L
$ R1 ~$ _ x# X; \# b- W. f
那么为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?
) ^' [3 [5 z/ j: l0 Y+ R# w: H1 M 因为机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。也就是说AUC越高说明阈值分割所能达到的准确率越高。& A, E; T5 z* e7 Z0 |* d' @
0 u8 J7 H+ s% _- |# j: h/ {7 R" C 小练习:
; \+ F! \) E8 p5 M9 ` r ) ?4 V2 S3 n) P6 l- J
以下说法正确的是( ABD)。【不定项】/ V4 L* ]& G( b2 c2 `
A 随着阈值的降低,TPR与FPR都会增大。
* o3 ~ M: m* |7 L2 h. W B TPR与召回率的值是相同的。/ L$ n9 G* p# F$ z& j7 ~1 g
C 如果AUC的值非常低,例如,0.1,则该模型效果很差,也很难调优。
' N/ l: l$ g% s+ j D 无论是什么分类模型,ROC曲线一定会经过(0, 0)与(1,1)这两个点。
1 v+ S. {6 g' r: F 4.3 ROC曲线程序示例" g0 [3 `$ S9 ], B8 {- @
3 X4 x8 M- _, O6 [# ]' I5 w 我们首先来看一个简单的程序示例,借此来说明sklearn库中,ROC曲线的实现细节。4 W6 j' F1 ^. h K
' A" z5 _9 N& v2 g
4.3.1 roc_curve函数的参数) j, N0 F1 C8 t+ c7 C! C
import numpy as np+ o: C, G1 r* \1 E% c
from sklearn.metrics import roc_curve, auc, roc_auc_score
8 [& g# u. J# A y = np.array([0, 0, 1, 1])
2 K' A n' R* z1 J- q scores = np.array([0.2, 0.4, 0.35, 0.8])' g% G3 z$ a* A- P, J ~9 s
# 返回ROC曲线相关值。返回FPR,TPR与阈值。当分值达到阈值时,将样本判定为正类,, \5 X* \% x& d* H, y% ?
# 否则判定为负类。
0 R) ^. w8 c6 S& } # y_true:二分类的标签值(真实值)。2 o! s! A5 ]. ?0 W6 b
# y_score:每个标签(数据)的分值或概率值。当该值达到阈值时,判定为正例,否则判定为负例。9 x) C. y, o( ~
# 在实际模型评估时,该值往往通过决策函数(decision_function)或者概率函数(predict_proba)获得。
* {0 g$ Q/ k) x! g # pos_label:指定正例的标签值。( \0 z o" t- U; C3 ]9 C. ?
fpr, tpr, thresholds = roc_curve(y, scores, pos_label=1)
+ Q+ [4 [3 S7 C; T8 Q0 R print(f"fpr:{fpr}")
& s3 |* W' h6 N print(f"tpr:{tpr}")
/ _ j; y+ w( ^( b( j$ O( W5 K, c/ e print(f"thresholds:{thresholds}")" X1 M E, J0 P
# auc与roc_auc_score函数都可以返回AUC面积值,但是注意,两个函数的参数是不同的。
d/ K0 s/ C( ~* Q9 x Z6 s% D print("AUC面积值:", auc(fpr, tpr))* u/ q: Y$ u& [
print("AUC面积得分:", roc_auc_score(y_true=y, y_score=scores))
& g9 c5 P4 }9 q #### 3.3.2 roc_curve函数的返回值
( x9 S+ P2 x& I9 B; q7 ] 4 w# ]/ z8 [8 K0 q: H) N0 K! W
结果:" j- n6 t6 b; i* R9 z1 y$ l
1.8 是怎么来的?
3 H! l" i3 k% l' l$ b 1.8是阈值中最大值+1(0.8+1)得来的。为什么这么算?因为要使得最开始得到的所有阈值都不会超过这个值,才能过(0,0)和(1,1)这两个点。
9 O; W" v1 {$ E9 G) J) B+ ?3 |4 P
5 ]1 G" u0 `: m 4.3.2 roc_curve函数的返回值
9 R& C7 D$ L/ M- |9 ?/ o 9 K z+ V9 `7 l1 ?1 _9 @2 u" _
roc_curve函数具有3个返回值:& g' s( F% I" F
- Y+ ^ `4 t" f5 t# X! G. d6 S
fpr 对应每个阈值(thresholds)下的fpr值。- e2 Q x; g3 m( L3 h6 @0 }3 w
tpr 对应每个阈值(thresholds)下的tpr值。
, v! z1 y$ l1 R) Q1 t thresholds 阈值。# @( \5 s( ]! Z: n2 j) E
roc_curve函数会从y_score参数中,选择部分元素作为阈值(选择哪些元素属于实现细节,会根据sklearn版本的不同,也可能会有所差异。),然后进行降序排列,作为roc_curve函数的第3个返回值(thresholds)。同时,根据thresholds中的每个元素(阈值),分别计算fpr与tpr。. f2 _( W* U% T
iris = load_iris()
/ @: P: }( b, H X, y = iris.data, iris.target% O' P; y ]7 V* t3 r
X = X[y != 0, 2:]
3 {% ]8 p( s4 ~- F6 I4 \ y = y[y != 0]3 D( `8 B2 V0 _: M
y[y == 1] = 0( d. l8 p6 A2 v; s9 G
y[y == 2] = 1- p: F5 W _' z: q2 h
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25,
# [3 D5 \3 N0 [& H8 _6 L+ y/ O9 A! w# w random_state=2)
m, ~( M0 U) y. b) d- k # lr = LogisticRegression(multi_class="multinomial", solver="lbfgs")$ m3 e- _1 n! I1 ^0 K
lr = LogisticRegression(multi_class="ovr", solver="liblinear")
0 I" L" }9 g2 K: b# M o6 u. f lr.fit(X_train, y_train)
1 h, e: U& f' g& B5 v# B# ?$ \ # 使用概率来作为每个样本数据的分值。
5 E4 @' v& f" G1 Q) |' q, O probo = lr.predict_proba(X_test)# `/ k7 u7 ]: X, L8 \
fpr, tpr, thresholds = roc_curve(y_true=y_test, y_score=probo[:, 1],# W0 r: { N Q, b- P
pos_label=1)
- F# H+ ?2 y! B display(probo[:, 1])8 R" ~, [# ^! U- F- @; }
# 从概率中,选择若干元素作为阈值,每个阈值下,都可以确定一个tpr与fpr,( o, W1 _9 k% U7 }/ o( r! q
# 每个tpr与fpr对应ROC曲线上的一个点,将这些点进行连接,就可以绘制ROC曲线。* t: P; x0 ^4 o8 k0 R! W* d" U1 s
display(thresholds)( y. I' X9 {/ u+ W3 j
' N) X3 ^. ^. q/ u3 \6 W* m _ 结果:
& ]! r" u5 o; w* ^0 @
& b7 U3 K% z* p6 n9 l) c+ ^
" Y" X- e8 J; e* |7 N. w ; F5 u# h# v7 u% M: v" l+ C' a
# 随着阈值的不断降低,fpr与tpr都在不断的增大。
4 }4 x/ K- A; u fpr, tpr
* @: S9 Q- Z' U7 E
3 b+ U6 o! ] u' d1 z' ? 结果:4 x. c# ?& R1 I0 u# i
0 Z, ^. Y0 c6 p9 q5 m9 ]
' B+ L/ l9 b" {9 P5 q8 P6 ~* G 4.3.3 绘制ROC曲线
1 b- w1 O: V g! N5 V& b% r 有了fpr与tpr的值,绘制ROC曲线是非常容易的,只不过是最简单的一个plot而已。
1 N9 ?' B- ^) j3 t) I: W, p plt.figure(figsize=(10, 6))! m) @' }, `& Y' D1 o4 I
plt.plot(fpr, tpr, marker="o", label="ROC曲线")
7 K. v# ?( t$ B3 [) d! w plt.plot([0,1], [0,1], lw=2, ls="--", label="随机猜测")% X5 B% z3 [: K7 U) [
plt.plot([0, 0, 1], [0, 1, 1], lw=2, ls="-.", label="完美预测")' }: Y. X' v4 v8 \; [3 y/ x
plt.xlim(-0.01, 1.02)
6 E4 ~4 r) @& f: O- S+ O plt.ylim(-0.01, 1.02)
7 ~. c9 ^9 L9 p# h$ o) |1 X plt.xticks(np.arange(0, 1.1, 0.1))
/ d" g& I2 [4 Y. R plt.yticks(np.arange(0, 1.1, 0.1))7 C! W( }/ v" M) g. p" T
plt.xlabel("False Positive Rate(FPR)")
' I8 c' c& W6 |4 B1 E/ N plt.ylabel("True Positive Rate(TPR)")
5 X8 F" `6 G) M T plt.grid()
3 p L4 l* w | plt.title(f"ROC曲线-AUC值为{auc(fpr, tpr):.2f}")
; J- g; }# o: U& R plt.legend()4 }8 e7 t! f& _. P4 N+ [, p' P/ j0 I
plt.show()5 ~7 W9 B7 }9 P! x1 N
% ]+ H! ]% z4 O/ c B) k
1 o5 |: q9 f4 F! w, k* E9 `
5、总结
" _1 x5 i9 u7 d " e# [7 v$ y1 L' F
混淆矩阵的含义。- u7 r9 ~$ p5 O7 X) j8 |
正确率,精准率,召回率与调和平均值F1的含义。
; y, I- b+ r( X' K2 J6 @8 D0 d2 K ROC与AUC。
" {$ `& H$ X; L' Y. {% a. m : A6 A) c, x3 Q' m- }
参考资料:
; a' |' b0 ?3 [4 ]' Y+ i4 D1 m 1、https://blog.csdn.net/zuolixiangfisher/article/details/81328297. l9 j) g8 f' Q( K# t- l' [
2、https://www.jianshu.com/p/2feb00839154) @" v6 y- U! j3 A/ s, O: {: K' E) b
3、https://www.cnblogs.com/kamekin/p/9788730.html
# w3 k1 b' d6 n* { 4、https://www.jianshu.com/p/c61ae11cc5f6
% F4 h) V# A$ g; }; G& T ————————————————
/ y% x$ {/ m; P& }+ Y$ | 版权声明:本文为CSDN博主「糖潮丽子~辣丽」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
$ r$ C5 P. r! l7 O 原文链接:https://blog.csdn.net/qq_39783601/article/details/105600700
+ g* y ?* S' f8 Y: }. ] 1 l( _8 e6 C( p P J( [
! p' ^- |& D2 W9 h
zan