- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563345 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174226
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
* J4 y/ S/ ~ d$ K
极限多标签分类-评价指标! X( a# {% x* R
8 K7 N' \4 Y% C$ [' n9 d7 n, ^0 S极限多标签分类-评价指标8 H2 g5 n. b; o
References:
* U. w) q# P0 C0 \: q, |, Khttp://manikvarma.org/downloads/XC/XMLRepository.html
6 ~1 L9 ^2 i3 Ehttps://blog.csdn.net/minfanphd/article/details/126737848?spm=1001.2014.3001.5502# }8 ]2 g8 Y% m: |) ]7 T( q+ b
https://en.wikipedia.org/wiki/Discounted_cumulative_gain
8 M) r4 t* j3 F7 r J( Z& l. t9 |- Y0 q6 `3 X: S
什么是极限多标签分类 (eXtreme multi-label Classification (XC))?
6 v0 h; F, [/ p$ N标签数非常多(Million),典型的就是BoW数据标签。
2 t1 @2 [& O- [/ K: D1 D极限多标签分类的典型应用:Image Caption(头大)。不过在Image Caption里面,Word之间存在序关系。XC可以看成是Image Caption的一个关键阶段,它能够选出与当前Image最相关的BoW。
" o8 F' D1 |% k8 n8 B- X( C. _(上述都是靠过往经验吹的,近期没调研)。
8 \) n0 i' Y% J9 _* `! a
" `2 T J# _, p9 D w9 m先来看一下评价指标:1 W* {* b* ]2 n) w5 l% D
由于标签数非常多,且GroundTruth又非常小,因此通常意义上的分类精度、召回(多标签分类用macro或者micro的acc或者recall)等指标不work。: Q' |' j/ P/ {) D* k/ |
这些评价指标通常考虑了head/tail labels,也就是高频标签和低频标签;以及reciprocal pairs(互惠对)去除?) c; j! R" `7 X
互惠对似乎?是指彼此相关的标签对,比如针对一个数据点,如果预测了标签A,如果标签B和A相关,那可以自然预测B。$ P+ v) J6 V/ `) M* r+ e
为了避免这种trival prediction, reciprocal pairs应该被去除。
/ x+ D1 [& m8 @3 }/ S
) k( {0 ?5 q7 X' a* w6 u(1) Top-k kk Performance:( Q7 p' a. N1 N6 X* y
(Precision@ k ) P @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l \text{(Precision@$k$)}\text{P}@k := \frac{1}{k}\sum_{l \in \text{rank}_k (\hat{\mathbf{y}})} \mathbf{y}_l
0 H3 l5 Q7 X7 l5 q7 T5 T(Precision@k)P@k:=
/ }* V; ~1 u ]/ S7 I6 Ak5 p( B6 w/ f. ?& u. s. ^
1
$ ?9 k' l4 H M; i, Z1 a# y. G! g2 Y2 ^) `0 X+ |
! W: g4 J. N3 W, w, g
l∈rank $ H9 e: ?6 }. @/ r4 A& \
k' q. r! [/ V: E1 w
) {5 a/ f; g7 a4 S0 a8 S. v7 W
(
1 y Q# w2 ]2 q; c9 vy0 z( a& J) M7 ]) \4 X0 m! l
^ h: n: y% p. r2 G
$ ~$ r3 O0 m: `+ w )
' W: ^( J0 Z; F$ {& e+ N∑0 O7 s9 E3 w+ W
& J3 H! P2 @7 p$ |& i8 U& O
y
+ @0 `# N" H* K8 c& u0 d/ y8 ~. Pl
9 j( r% p* b; F& P- |$ \
& `0 b; J$ g" V/ W# k2 v9 q/ A O& A
' m B; {: Y, f3 @4 W6 ~# C(Discounted Cumulative Gain (贴现累积收益))DCG @ k : = ∑ l ∈ rank k ( y ^ ) y l log ( l + 1 ) \text{(Discounted Cumulative Gain (贴现累积收益))} \text{DCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{\log(l+1)}
+ }% ~# u; ~' b+ X2 b% o(Discounted Cumulative Gain (贴现累积收益))DCG@k:= / G! \ |4 y' R* e
l∈rank
- i' D1 s4 T& pk+ U M6 _% N- ~% R6 s* ~7 s( S3 ~( G1 {
0 o z. [3 ~: e# ~: R
(
) o. Y$ T; j3 O# E7 ly
: {; D: g2 Q) v2 @/ l^, w; r8 M/ r5 z! }3 S- x* P+ i
& e$ L7 Q) X0 `7 n; B% |, y0 @ )! L1 q! ~2 g: p; J* S
∑3 ]- V7 S9 I7 n0 g1 h) r$ g6 o, ]
1 J+ |4 ^ @* l" X4 l' x3 u: J
6 v$ C, H# G) x7 {4 x
log(l+1)' _6 w, G* v/ e ?1 c% a% U
y
7 W$ `1 k; {7 K8 o4 Yl* x1 k0 s) |0 y9 W1 q% w( b
0 I5 l& L$ K2 D& t
" W% M2 X. e6 j" P7 h4 _) ~7 r0 t% w/ Q3 J+ c& y
' @+ f& j" |6 r0 `7 `3 y) e: V( o: j# ~- C
(Normalized DCG)nDCG @ k : = DCG@ k ∑ l = 1 min ( k , ∣ ∣ y ∣ ∣ 0 ) 1 log ( l + 1 ) \text{(Normalized DCG)} \text{nDCG}@k := \frac{\text{DCG@$k$}}{\sum_{l=1}^{\min(k,||\mathbf{y}||_0)} \frac{1}{\log(l+1)}}. h! p L. m& ~5 |+ s0 J D. s
(Normalized DCG)nDCG@k:=
+ U1 \/ p. L5 C8 h: N∑
2 k7 D+ Y5 T2 ]/ j0 ~6 k j& xl=1- g1 e! t, Y& q3 P0 o) [7 \
min(k,∣∣y∣∣ . g& K( h. h: H+ m
0
4 Z* U0 Y3 O+ c7 n$ ^! i4 v/ U# Q) X% g' ]3 m3 ? K
)
5 b2 ?% y! e+ p0 B. a9 t9 D% ?. t% s) {. i# B5 u8 v- ^1 v q8 b
% ^+ ]* v8 G! T8 s. C0 |
log(l+1)
( t6 |7 {( O7 v3 M g1
! U. Q' Q: q' A: p0 ?* V2 ^+ I5 E* Y6 a+ s* N- |) j& U. l
1 e/ y+ l; [- p: N1 `, kDCG@k
+ x7 t8 O( ?9 P" P! _& m; ~- g3 t1 S2 V6 J$ m+ y( X* O
7 w4 K) K, x) C, g6 q; M( z
) { }% ~' L" e2 V d6 n$ Nrank k ( y ) \text{rank}_k(\mathbf{y})rank - w3 e U9 G2 q& T* c
k: q/ |- }. p( a0 R4 r$ F
4 l w7 h5 ^* v7 Z (y)为逆序排列y \mathbf{y}y的前k个下标。Note: DCG公式里的分母实际上不是l,而是from 1 to k.
( ^0 W. n+ J3 O' f/ G$ P% H7 W7 [
靠后的标签按照对数比例地减小,说白了就是加权。至于为什么用log?两个事实:1. 平滑缩减; 2. Wang等人提供了理论支撑说明了log缩减方式的合理性。The authors show that for every pair of substantially different ranking functions, the nDCG can decide which one is better in a consistent manner. (看不懂,暂时不管)
1 }) V! A) F- Z( G5 e; D* ^' S; L( R* V) C
(2) Top-k kk Propensity-score:
6 K2 w7 @& [3 l J
. }! r" ]! E G* I: T) y) ]有些数据集包含一些频度很高的标签(通常称之为head labels),可以通过简单地重复预测头部标签来实现高的P @ k \text{P}@kP@k。Propensity-score可以检查这种微不足道的行为。* r2 L% r5 a% I# G8 Z
( Propensity-score Precision ) PSP @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l p l (\text{Propensity-score Precision}) \text{ PSP}@k := \frac{1}{k} \sum_{l\in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l}
# G9 c; \: s- L* S' Q" G, {(Propensity-score Precision) PSP@k:=
; x4 S% f4 r0 @2 h# T1 V* A ak& I1 i/ g" B# L& K+ y" X3 N
1
# U2 E ?, e- ^4 D7 C: x& M, K1 W1 l
, ]1 v7 D+ @# [2 k1 f
l∈rank
( o9 `8 U4 k0 c, z6 h. i& [) Yk
1 H; W$ H) z( K3 h. q
6 _: K k5 G7 g7 z: h8 X* N (
$ H% j0 z8 f" k% M2 `# Y" z& ey2 G+ [* O! b D, ~
^
/ F! O' r: K4 w* J6 T* l
' ]: R" W' n1 q; W4 S' Y' P )
* @* a# E0 Q: ]) O∑
2 C( R$ Q" m/ Z1 j; k& u$ v- q# p9 j$ N% v8 l2 _9 J
: N* B4 h; b/ J' U
p 8 b9 c8 g- l" [, ?+ Z
l
9 n. J' \3 u* I6 f
, t: h& q7 M! I+ P& `
* W5 K5 g4 w7 Z' ~y 5 w ]5 |4 A9 G* {" L+ f( }1 X
l
- a7 \0 \! m! z' Q/ `/ R8 Y7 L& [- }% s
" V9 z4 s- e) d( U5 U
) Z J: @1 K; D+ r7 q% j8 o
, W2 Y+ _& b) \. Y/ A9 a. k$ G3 g8 P# a' k9 e4 R v% q% w1 X
PSDCG @ k : = ∑ l ∈ rank k ( y ^ ) y l p l log ( l + 1 ) \text{PSDCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l\log(l+1)}% [0 I' o1 o. U* f2 X
PSDCG@k:= ) S8 u+ [& K8 a4 @1 `
l∈rank
( B2 B) H( N2 s2 ^4 \7 _4 _3 \k
( [' ~$ X6 Z3 Z: r/ P8 y
# H- L5 c6 |) D; I (
% |% G/ l; K: C8 a+ Z5 Qy% P5 K i3 k9 K9 K: q
^
6 ^1 k% @3 G% l V8 h- k* ?- _3 k; O0 G, O7 W) O3 v- e8 S' }& X
)
2 R1 N, m: d# a( Q∑
2 V2 S: A% i( i- T8 v( _+ F( Q: Y. K, _$ Q& c7 g9 g
& C3 k1 a: y; i7 a& }" c3 l
p
) J9 x5 ?, k' c7 d2 ]" S$ Gl
# K! K5 }: A2 m0 u, b6 A( C5 N7 l& \7 i% Q2 O7 w/ ]
log(l+1). z) Y* M, c5 F& q5 c
y
% W+ @# v$ ?8 w* d- q5 ^% `" C' El
8 k7 S, A6 W- Q6 i( b, {" Y" t, z* ]
) i1 I t; P1 Y+ |% v* p
. q$ ^2 D5 _5 E+ U2 @& H8 W
8 {* d) }0 J0 E( Y9 n8 I" l4 S+ Y) o$ \
9 K; R5 W" T' `" V
PSnDCG @ k : = PSDCG@ k ∑ l = 1 k 1 log ( l + 1 ) \text{PSnDCG}@k := \frac{\text{PSDCG@$k$}}{\sum_{l=1}^{k} \frac{1}{\log(l+1)}}
6 s( t' L3 V8 N v9 t! ePSnDCG@k:=
" N$ r6 s/ _: t∑
* F) Y6 \ q: b4 p; n- }l=13 l' X. V, w" f
k
7 l5 }: n% {* l! w) G0 ?! R1 T9 u0 _$ R2 q# ?
7 f, _, h! A7 R/ N( `7 w& Dlog(l+1)7 ~7 w$ H- U0 R& B6 t) a
1
' G5 B& x: g9 W L9 g" ]$ V( G' M9 a, [
* l1 P1 J/ r2 A
PSDCG@k
1 \$ w8 s' Z( t I: C8 i" \7 a0 W2 B0 t% [
3 e4 f1 \: @+ w% D) \- ^; s/ O: ~( C2 b
5 A1 w( ?) \7 ]' h3 J+ F5 M其中p l p_lp 9 h& {: B* W+ p0 T" C
l9 P- G9 p6 P: a0 d3 [' M( t; q
2 [* J7 H$ g5 w- [$ h
为标签l ll的propensity-score,使得这种度量在missing label方面无偏差(unbiased)。
- q5 T: z4 K$ n/ l& HPropensity-score强调在tail labels上的表现,而对预测head labels提供微弱的奖励。4 J9 z2 X2 [3 C1 j
————————————————6 i* B. K, t5 X& W- A2 p6 d/ {
版权声明:本文为CSDN博主「摆烂的-白兰地」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。% R9 L7 `/ q& A1 K$ T# z
原文链接:https://blog.csdn.net/wuyanxue/article/details/1268051909 N3 ^) q B' z( S% t1 G @$ i
! s- O2 J' p2 }7 X+ c( w- l, t% }9 y, }2 b4 \: s
|
zan
|