- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563253 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174199
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
# e- d' n4 z+ M6 H
极限多标签分类-评价指标- q1 ~) E$ ^# |
: g) M8 S1 V; Y- h1 C" l极限多标签分类-评价指标5 _4 F" R' k7 [) s4 ~
References:
' C) v R' ?9 w. Ehttp://manikvarma.org/downloads/XC/XMLRepository.html4 H5 ^' L/ X7 u
https://blog.csdn.net/minfanphd/article/details/126737848?spm=1001.2014.3001.5502
$ m3 X' f }, h1 J1 H: e5 D* `https://en.wikipedia.org/wiki/Discounted_cumulative_gain
, L# O$ q" k& p4 A6 M0 L4 `! P6 _$ U
什么是极限多标签分类 (eXtreme multi-label Classification (XC))?; Y$ Q8 H V) ]3 f
标签数非常多(Million),典型的就是BoW数据标签。
- L3 P: d3 W& E' v极限多标签分类的典型应用:Image Caption(头大)。不过在Image Caption里面,Word之间存在序关系。XC可以看成是Image Caption的一个关键阶段,它能够选出与当前Image最相关的BoW。
; F+ b: l; k9 u; V/ ~6 x5 i( S, Z(上述都是靠过往经验吹的,近期没调研)。* Z+ r& \, o9 b3 ~- g1 P$ E4 z
! [5 o3 j/ L+ U# {
先来看一下评价指标:7 [, l, \! q& O! v5 s" K7 U4 F
由于标签数非常多,且GroundTruth又非常小,因此通常意义上的分类精度、召回(多标签分类用macro或者micro的acc或者recall)等指标不work。
0 L, ~8 V# Q* Y7 z( n0 G1 c3 A! ^这些评价指标通常考虑了head/tail labels,也就是高频标签和低频标签;以及reciprocal pairs(互惠对)去除?
* \3 j* _( ]) W! a. P, w$ t5 ]互惠对似乎?是指彼此相关的标签对,比如针对一个数据点,如果预测了标签A,如果标签B和A相关,那可以自然预测B。
; @* r1 k* q8 n) y) c/ l# k( q为了避免这种trival prediction, reciprocal pairs应该被去除。+ Y/ A. ]. q9 u# ]6 u6 a+ _
]5 l, W, {* B. c. k. u. U' @) ]
(1) Top-k kk Performance:- Z- M; y4 A* F% A0 \6 d4 |8 t
(Precision@ k ) P @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l \text{(Precision@$k$)}\text{P}@k := \frac{1}{k}\sum_{l \in \text{rank}_k (\hat{\mathbf{y}})} \mathbf{y}_l
0 I$ ^5 t7 n$ s, X: e(Precision@k)P@k:= * t6 x: z1 C9 ?9 ?* n6 O) Q5 X9 k
k
) M; M9 N: ^. W$ k; q1+ J3 u% |; R" g
1 e- X+ B: ^) u/ H* D! t+ f7 e
( t" z, Y/ ?- fl∈rank
; P$ e5 s4 ]6 P, R& M$ q) T1 r [k: \5 U5 O- r! x! t
! Z$ z# Q0 g7 G: @ ( ' O' E1 F) Q% I8 o$ I# l y
y
( r# G, o4 h9 e9 i% l4 D. w^
! {1 \ Q0 P/ f: q; b
/ [6 S) ]' S% J) e )
- y6 g, s! Y. F8 A# O# I∑
! `: u- D9 t; i
( T) K+ @) ^: @" [ D y ( Z( o" a1 k' a7 D- g& [
l
. ~9 I- \5 y9 i. l; v1 L# D T* W0 g+ N4 a4 s$ c# M7 B
( f/ m( E& L& I. T. o) }3 C; f& w% |; L. Z( h( d4 U
(Discounted Cumulative Gain (贴现累积收益))DCG @ k : = ∑ l ∈ rank k ( y ^ ) y l log ( l + 1 ) \text{(Discounted Cumulative Gain (贴现累积收益))} \text{DCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{\log(l+1)}
% C3 b8 _! C& J; q(Discounted Cumulative Gain (贴现累积收益))DCG@k:= 7 X9 g' ] y& c# S# A
l∈rank " c; D. E. i2 A3 k% [4 g2 \ g
k
% o% V3 b. I. w$ z! c4 o7 Z, a' w& [$ Q0 `( i
( 3 g+ S0 O) d R# z( U
y
# R4 t$ n+ D% }5 r5 d+ V% m1 C^' @' C2 u' C# V) e, W
# D3 g4 K+ U b+ a8 J
)1 i% l/ G) _8 c
∑9 Y6 T& N8 S; X7 O& r4 d f
3 y! ~5 x% r. `$ e0 T V1 N+ y* S* W; K, M& k/ \4 e& T: ?
log(l+1)
3 h) m J# R5 `# N& t1 M% F+ l2 m9 I9 Cy u3 \/ d3 j: _. g" A. {9 z7 c; \( t
l: p! P' b5 C2 {4 P$ [
: E @0 L7 G* n8 F% f' G- j8 d
0 c6 y, Y( ~& I2 @
, H L+ d4 u) f3 J5 R6 p( i
5 U- u/ {5 {' w& k6 _" V% S+ B0 t(Normalized DCG)nDCG @ k : = DCG@ k ∑ l = 1 min ( k , ∣ ∣ y ∣ ∣ 0 ) 1 log ( l + 1 ) \text{(Normalized DCG)} \text{nDCG}@k := \frac{\text{DCG@$k$}}{\sum_{l=1}^{\min(k,||\mathbf{y}||_0)} \frac{1}{\log(l+1)}}
6 e& _ X$ y! \! y(Normalized DCG)nDCG@k:= 6 ]6 o- t" ]5 V3 i
∑
/ H w9 i2 }/ b2 El=1
+ U8 O# I6 k) I( e4 E* Zmin(k,∣∣y∣∣
3 U) Y) E6 D9 h- X0
* w$ O+ u1 o- G& F
9 Q% m- O0 g `! C* s3 g. G )
0 N8 E+ g4 W* b8 ~" V: D# z* Q2 Q. |- J+ W
$ t3 S1 d" M# E( q2 Ulog(l+1)2 w2 w: f6 Y# P
1
- p/ j6 {1 ]8 q( e
) r; e4 b1 M D9 u: j. |. U/ E( _7 Y. V+ o
DCG@k4 } k1 X2 m5 q( H
; {$ @6 N) B, S- w. z- _1 o7 p6 y" e+ Q0 H) W1 `0 @
" M- D0 Q' t3 t+ T5 s" y
rank k ( y ) \text{rank}_k(\mathbf{y})rank
. N0 }, G6 a' S: K, r. Tk
6 x; h. I' t) b* ~ F0 h- c! `; s: Y$ |- ]
(y)为逆序排列y \mathbf{y}y的前k个下标。Note: DCG公式里的分母实际上不是l,而是from 1 to k.; U" I/ Q+ D# c. ~$ ]
/ ?! P4 ^0 P: \' v: B" \
靠后的标签按照对数比例地减小,说白了就是加权。至于为什么用log?两个事实:1. 平滑缩减; 2. Wang等人提供了理论支撑说明了log缩减方式的合理性。The authors show that for every pair of substantially different ranking functions, the nDCG can decide which one is better in a consistent manner. (看不懂,暂时不管)
! `8 M$ t1 e6 ^# I9 ]# _
: l" \, P. q1 `" l! S% i* F(2) Top-k kk Propensity-score:
- u3 N+ [: g. p+ q" `
+ G% n* H) H( ], ?有些数据集包含一些频度很高的标签(通常称之为head labels),可以通过简单地重复预测头部标签来实现高的P @ k \text{P}@kP@k。Propensity-score可以检查这种微不足道的行为。) s4 F" X, ~) _6 y. W& K3 @
( Propensity-score Precision ) PSP @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l p l (\text{Propensity-score Precision}) \text{ PSP}@k := \frac{1}{k} \sum_{l\in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l}- v" N2 d- z, J" T. [. \
(Propensity-score Precision) PSP@k:=
( w8 m* l% j" ?3 Z: r& n5 qk) C+ c, U) V7 ]
1
: j8 [. S4 i6 ?4 A* Z0 ^: C1 j
2 F4 Y# i, P$ m7 g; C4 t o- r6 g1 A) l" x9 f& B
l∈rank / w: {% m$ L. G
k
' S5 z" H0 _5 Z1 e9 |9 d+ n$ n L; b# }! a
(
8 b5 L' L! o& G5 \2 Z9 B5 x* Y: Ry- o. x$ V: z3 l6 T3 C4 i/ e. }) S4 B
^
* j8 Z r1 V# \6 ~% d+ ]4 d# K8 e) A+ s. u- ?
)9 q5 Z. x2 Q6 q% m7 O/ I# l9 q) R
∑
" O+ y, Z: \; ~! M. _- n- K5 i6 K) c9 d _
. k. V$ W) P' `1 `p 2 c6 N' D$ j0 X4 o% b9 O+ C
l8 t( ^( K$ E: K( _& V3 z2 F
" j H/ y9 W. @
) v( _+ v- ~6 ]& V t+ I7 _% }; a! my
, K4 Z& t0 A0 R' U* @l
6 t& ^' G0 l% K6 i) E7 S0 ?3 y/ e5 Q8 x. q, Q+ b: a# o L. ]
- U1 f7 y' e$ F. J$ Q
0 o# D% e8 g& O0 X' |
Z& b" d- |4 F
% T/ z, N- C, K8 I% JPSDCG @ k : = ∑ l ∈ rank k ( y ^ ) y l p l log ( l + 1 ) \text{PSDCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l\log(l+1)}* u- o! a; e, J8 i1 L% C3 x! K
PSDCG@k:= 0 v% W6 D3 j6 e& G
l∈rank
- R' M; F+ N4 o2 {! {3 z8 pk/ c- S: `9 h8 F
' k0 e2 J1 y, d R+ }! U ( 0 P# M: v. e. u* V! i
y
* K1 q" K) g4 C+ f0 ]' w9 z/ B6 n^
5 e% e7 m. h2 ^) _9 m% U% l# M5 H0 K2 x$ x" }; o9 C& p
). H+ X. s! Q( N# i! E7 X3 }) a
∑
6 a1 l' y0 h1 G
. v% t& _ ^7 C
% h# G9 w4 Z2 R9 z& Sp / J+ u7 F) z# [4 w
l
- F$ `, U! _- u5 [3 t) m r1 Q* M9 {2 o
log(l+1)$ U/ {' g4 e; x0 |9 o$ y, w8 Y% t6 z
y ) B( Q- p4 _0 e1 {5 o
l2 F/ `3 I, l0 |: z
+ B9 M' x5 X# N% ], E6 _2 J# h
( b4 h# e9 O) b/ `9 o4 s& S6 R9 L9 A, I% x! ^
& o3 b" V1 B: l9 O6 t Q" N- W# D6 m7 e1 P( g, B1 k$ C L
PSnDCG @ k : = PSDCG@ k ∑ l = 1 k 1 log ( l + 1 ) \text{PSnDCG}@k := \frac{\text{PSDCG@$k$}}{\sum_{l=1}^{k} \frac{1}{\log(l+1)}}: P3 q, A, I$ T/ l$ P
PSnDCG@k:= 6 u5 {2 k$ q, H& Y9 O* t+ _/ e
∑ 0 F2 G* Z. d& I, F9 E1 [
l=1
$ W* R: K) g# K" ~k
5 b5 v# }1 Q* B1 P1 [. e$ U2 U% `9 {/ l
/ v# B" q4 A4 C; }2 h
% R& H4 K/ ~- L9 X7 x- m: `5 Flog(l+1)6 v! R! C$ K- |1 j
19 g8 ^ o( ?& }4 b6 F9 c
H" h4 f1 f/ T) U
2 U& W2 Z1 [% }) U, V E% F6 b
PSDCG@k. f [0 s" k4 u0 _7 d3 ^$ Z
: L! f% B: |7 b
" P, g8 O8 j7 C( ?/ l
( X, d5 t5 x- X# l6 _' E# c n其中p l p_lp
1 N) A7 u$ V! p; k0 Ml' _/ L8 b, n* B( h! S# ~/ K" M
1 C; H. m* v' R2 `1 Z1 `5 R
为标签l ll的propensity-score,使得这种度量在missing label方面无偏差(unbiased)。/ x; G: \& [, X
Propensity-score强调在tail labels上的表现,而对预测head labels提供微弱的奖励。1 g8 u& T: b2 V: O
————————————————
) u' L+ A) @: I X版权声明:本文为CSDN博主「摆烂的-白兰地」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
6 u! g- m) Y; n9 Y7 k8 @原文链接:https://blog.csdn.net/wuyanxue/article/details/126805190 C' O: Z' U% x, F* a
# }6 C7 w( W$ Y( i
+ Y% W$ ]0 K, R4 k
|
zan
|