QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2434|回复: 0
打印 上一主题 下一主题

[其他资源] 极限多标签分类-评价指标

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2022-9-12 18:42 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    - Q9 T8 _& M8 n: @极限多标签分类-评价指标& u1 [7 u2 s) R$ o* m
    0 p6 [6 I! d4 A! b* `7 R- e
    极限多标签分类-评价指标
    ! Y! {& Q& M% Q  UReferences:
    4 N6 A) x1 u$ ^' Bhttp://manikvarma.org/downloads/XC/XMLRepository.html
    ' X# V9 t2 g; a7 \6 Jhttps://blog.csdn.net/minfanphd/article/details/126737848?spm=1001.2014.3001.5502! J, K" Y: N1 C$ x* Z
    https://en.wikipedia.org/wiki/Discounted_cumulative_gain0 O: s) v' H) Q1 t. p" ?! I

      m& p7 f) M/ P' C1 a( |什么是极限多标签分类 (eXtreme multi-label Classification (XC))?, N  {0 M# U1 S4 l- N) R
    标签数非常多(Million),典型的就是BoW数据标签。3 `. @0 |& f) M' b1 f
    极限多标签分类的典型应用:Image Caption(头大)。不过在Image Caption里面,Word之间存在序关系。XC可以看成是Image Caption的一个关键阶段,它能够选出与当前Image最相关的BoW。/ ~4 d/ H' g8 @  c
    (上述都是靠过往经验吹的,近期没调研)。# q+ V: S9 ^2 h, s" V# y

    % f" \3 r# h3 h0 ?9 g3 k先来看一下评价指标:: U3 C6 B* Z3 \$ M4 C. o4 k
    由于标签数非常多,且GroundTruth又非常小,因此通常意义上的分类精度、召回(多标签分类用macro或者micro的acc或者recall)等指标不work。
    5 Z  z; _8 ^7 [0 Q) g& _  Z7 p这些评价指标通常考虑了head/tail labels,也就是高频标签和低频标签;以及reciprocal pairs(互惠对)去除?
    ; O2 l& L/ W0 M+ A互惠对似乎?是指彼此相关的标签对,比如针对一个数据点,如果预测了标签A,如果标签B和A相关,那可以自然预测B。
    ; C- B2 S  l' m为了避免这种trival prediction, reciprocal pairs应该被去除。
    $ A5 E9 s) `/ {- C
    9 o5 B" W  z8 a3 q2 q( j2 r0 _& N(1) Top-k kk Performance:% V% R' ^  R7 m+ Z7 V
    (Precision@ k ) P @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l \text{(Precision@$k$)}\text{P}@k := \frac{1}{k}\sum_{l \in \text{rank}_k (\hat{\mathbf{y}})} \mathbf{y}_l* H4 K/ a8 s5 T+ S. Y7 N1 @
    (Precision@k)P@k:= 2 t  Y: ?7 E$ d
    k
    ' A# l3 e4 d3 a4 ?8 ]$ Y" ~1
      i  H1 b0 B+ _! Q; m
    * ?* c7 c0 _4 C
    7 e+ j  M' Y) l, R2 L0 a4 Ul∈rank
    / k$ A% L" \3 @k
    ; J- N4 m/ }2 @) X$ V/ [
    5 e4 Z! f& Z1 m (
    7 H5 M( A. F8 @' Zy  K" T# r( D% i
    ^
    ) ]7 J& d. k" ~+ ]1 Z
    $ v$ N, ?6 L& H4 O( t# z )/ d* x$ f0 N9 i( C, b3 u

    1 \/ F' ]. g( U
    7 h$ I5 |5 d  b) h2 A y 0 N) P: L+ I8 Y% M  e
    l& d; z: F# c$ x2 H$ D

    4 g$ I- b, x. _, Q# Z% y( A1 h; T7 R, N

    3 H2 L/ [# E' ?: j" E0 O(Discounted Cumulative Gain (贴现累积收益))DCG @ k : = ∑ l ∈ rank k ( y ^ ) y l log ⁡ ( l + 1 ) \text{(Discounted Cumulative Gain (贴现累积收益))} \text{DCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{\log(l+1)}
    6 I0 F5 [5 u8 j) V* h2 I(Discounted Cumulative Gain (贴现累积收益))DCG@k:= " s: ^3 l1 E1 N3 W+ ]
    l∈rank . P+ A$ O+ x* D+ E- B$ p# ^
    k5 x0 u! s# f, c9 ]- g
    3 U8 P0 o; U+ u( k
    (
    4 @6 t  o$ A& F1 n2 P: \$ N0 Sy/ S: J" \: L! K  C9 Z$ c8 H5 B- W$ {
    ^5 C+ {, J6 ^2 k

      D0 h0 i2 [1 z' ]$ J* N2 v) C )
    ; e/ F; V, j$ T: h4 C; [$ I* @* D  Q
    3 A  V+ h& y: {. c' K6 n, a/ x2 ?+ t5 a3 W# b. z9 ?0 ^
    " |3 k! r+ Q6 I. W
    log(l+1)/ C+ S2 y+ o, l: f0 v% o% c& ~; N& f
    y 3 [. G' P" L& I" o- C
    l1 X% M0 ?2 B* P- y) d
    3 U! |- q1 R8 ~4 L- Z+ ^' q

    ) D0 }9 n/ Y& S3 U: _7 f/ p, k4 M+ v
      i" K3 P% Q  O0 x! J- s) Q' S% S0 k
    % G$ o5 U6 v. W0 P* R0 `
    (Normalized DCG)nDCG @ k : = DCG@ k ∑ l = 1 min ⁡ ( k , ∣ ∣ y ∣ ∣ 0 ) 1 log ⁡ ( l + 1 ) \text{(Normalized DCG)} \text{nDCG}@k := \frac{\text{DCG@$k$}}{\sum_{l=1}^{\min(k,||\mathbf{y}||_0)} \frac{1}{\log(l+1)}}
    , i0 P" O  R/ i1 i6 g$ `# P(Normalized DCG)nDCG@k:= - o0 F) e7 k( C7 P' [9 i/ K

    $ Z1 E, W# j0 Ll=1& R2 X  O% A# A1 X# h8 k& y& D
    min(k,∣∣y∣∣ # J/ e- ^, |2 S5 o, B2 z0 l1 H
    0
    4 |$ C% R& C0 X1 d7 j5 z( d( {) n8 m4 D2 k2 ^$ ?0 L
    ), K+ ]8 M, q! G  y0 ]2 g- r

    $ W. ^8 N% z  D8 t& p& _/ y2 s* q9 v& ^3 {0 f6 s
    log(l+1)* r' c! R, G1 ~+ L+ T4 R
    11 V4 @: a% I; F( ]1 {& P- H5 z
    8 R  X5 O8 a, ?; O

    , m! a0 q" M7 Q4 BDCG@k
    9 F" p- m- `! e) V( h: l3 Z" W4 `% h' ^3 j, G1 Z. ?

    8 A: x6 L3 ^; Y
    2 f3 c- E3 ~- {; @rank k ( y ) \text{rank}_k(\mathbf{y})rank ( Q( ?* g1 p# _
    k# h: V" j( l" u. {* N. a. r+ V

    / j0 |! N* P" ]/ i' {5 Q; D* A7 e (y)为逆序排列y \mathbf{y}y的前k个下标。Note: DCG公式里的分母实际上不是l,而是from 1 to k.
    4 T+ l0 e% X" F8 c9 a4 ~9 G5 ?" E% j- a% }* Q7 Q
    靠后的标签按照对数比例地减小,说白了就是加权。至于为什么用log?两个事实:1. 平滑缩减; 2. Wang等人提供了理论支撑说明了log缩减方式的合理性。The authors show that for every pair of substantially different ranking functions, the nDCG can decide which one is better in a consistent manner. (看不懂,暂时不管)! L0 Q4 ]0 u; y) I; |+ @9 I
    : W$ o/ k8 `, ~! h/ p; y3 w- o4 V8 H; D) v
    (2) Top-k kk Propensity-score:2 ~% z" j: p5 ?
    & _3 D2 P5 \, l' u
    有些数据集包含一些频度很高的标签(通常称之为head labels),可以通过简单地重复预测头部标签来实现高的P @ k \text{P}@kP@k。Propensity-score可以检查这种微不足道的行为。
    * A  |% Y+ e* `8 E0 M: w5 P0 _7 i" x( Propensity-score Precision )  PSP @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l p l (\text{Propensity-score Precision}) \text{ PSP}@k := \frac{1}{k} \sum_{l\in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l}
    8 L$ K. M- O2 n& s(Propensity-score Precision) PSP@k:=
    7 z# z0 J: h; E3 H) O- ok2 S4 p2 x, i" U( n* p% e2 k4 }
    1
    . L4 ~( P% x4 |9 T" f1 N+ W5 W' k9 p: v! m

    ) M2 e* p% k8 Y1 u( L$ Zl∈rank 5 ]1 y( P2 ]2 ~) r0 `, b- r3 I& ]
    k5 y2 C, @6 n' E: V- S; I
    8 w# _# G- D5 F1 g" R
    ( 6 `) h' ~' I4 H8 p7 g
    y5 n. }# W3 a$ [6 k
    ^. z$ k3 w" z1 M6 {
    5 y; R: T. ?4 c% ^5 r. s7 j
    )7 u& R2 c; t; g$ c

    . _  L2 W5 j( b3 V/ t5 E
    3 l  o' T" {0 u5 k4 s5 E/ ]$ b
    , H" Y7 ?+ s8 m5 i; q- Q; A$ _p 4 c( a! b0 N) Q" n
    l3 A# Z) o, q2 q4 `, G
    % G0 k* a4 S8 w4 R8 f' S
    4 B5 N+ Z" K& ~  t5 b9 e
    y ; J& N# j: h+ t# a
    l
    " j# J3 [) T" L) P6 o) U  a8 y3 o7 `6 S/ h6 k( z. |# E

    : F) w" h5 W0 p
    6 G5 x1 b/ x, v5 \9 S$ h* \/ _8 |" N: O8 t, ]6 j
    - b# z7 ~, K5 ~# U% ~  ]9 K$ |
    PSDCG @ k : = ∑ l ∈ rank k ( y ^ ) y l p l log ⁡ ( l + 1 ) \text{PSDCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l\log(l+1)}
    # n" V3 ?% Y% }# M7 O7 V; BPSDCG@k:=
    / p2 h8 W) j& t$ Zl∈rank , o7 F+ d3 j' p4 x1 c
    k
    1 F# q; k+ v& q$ D- C9 _4 U
    ( ]6 K) j3 ^6 t7 E% [ (
    * o5 z  I5 }& H3 y6 y& k( J8 By; N- {9 C# C% t4 R
    ^; j3 x0 @% C  e+ W
    & ^6 M1 L- W! ]% u3 j& q7 w
    )  Q# z) k, a5 z8 q- }

    . M8 U- D! Y; L' Y: }  r3 T% j; Y- u
    2 U/ [6 t$ H; w* W
    9 q+ V# R8 l# U+ a3 P2 dp
    2 q0 h( p- v4 \; Dl- C* I! p/ i/ F" s  A

    ) }( x( s2 U# `. {7 a log(l+1)- Z8 x5 a( u* F! w9 J- M2 z4 e
    y $ x# H' z$ ]8 H% X8 G8 v
    l
    + o( I5 O; q8 x$ h1 K: \5 z5 h9 `3 l3 _1 w

    ' O. B+ C# i* H7 ^* G
    ) \. V( k. E. |. f: `% F- R; E; P4 W) Q2 E7 x$ s! H

    * [- \. m. j# P" Z6 h# g4 VPSnDCG @ k : = PSDCG@ k ∑ l = 1 k 1 log ⁡ ( l + 1 ) \text{PSnDCG}@k := \frac{\text{PSDCG@$k$}}{\sum_{l=1}^{k} \frac{1}{\log(l+1)}}
    / Y. Q: L/ W5 B2 R3 P/ TPSnDCG@k:=
    6 h: m5 a. Q  A3 U5 N# H
    5 _) p6 _6 [, D- f2 jl=1+ K) q  p; _# y. s! I' }7 @
    k8 D% o& W2 @( |1 D# d, l8 d

    $ d: ~% X  M* p5 x: L" X# g3 ~. o! w2 u# _; \: A' M
    log(l+1)( y) `+ y7 C- ]0 O0 U
    1
    " v9 e& W9 W" _6 w- I; X
    + t: w% Q7 p- Z: P9 C
    ; ~& H( r# s% M2 N8 W4 G" l' r' w  `PSDCG@k
    + R: T9 I# d* S0 X" _* T2 p0 y8 h. w! |9 _5 L
    0 k! R5 `+ H& ^" z

    6 y& C4 {  j; O3 w0 l7 ^, O其中p l p_lp / i4 k& x3 _8 _$ Q& W5 i* o
    l' z0 m1 ~  `1 I. l2 [
    . q" @- L# }" u+ J
    为标签l ll的propensity-score,使得这种度量在missing label方面无偏差(unbiased)。) w5 ^# k2 ^7 ]; \
    Propensity-score强调在tail labels上的表现,而对预测head labels提供微弱的奖励。
    * V& @& q' T! v. \  f- q————————————————2 J" ?8 Y1 o8 S# D8 k! e
    版权声明:本文为CSDN博主「摆烂的-白兰地」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。; p: K7 a; g6 _
    原文链接:https://blog.csdn.net/wuyanxue/article/details/126805190
    / L" ?) i6 Y" s( |% F
    6 H8 t- t, o: }8 y+ n0 s2 \; U5 _6 j8 e1 D, O/ X$ X
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-17 02:07 , Processed in 0.452539 second(s), 50 queries .

    回顶部