- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 559785 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 173308
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 18
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
3 t( y% t7 |0 m1 {1 |极限多标签分类-评价指标6 V& l+ ?+ m3 [
" Y/ c3 n% Y2 G2 i4 {
极限多标签分类-评价指标
0 X3 k3 K6 }7 ~ _3 v2 }$ {/ E* TReferences:
" _* d8 `3 d2 X6 _# y! G. W. Nhttp://manikvarma.org/downloads/XC/XMLRepository.html
/ w; R1 v5 d' x t& Rhttps://blog.csdn.net/minfanphd/article/details/126737848?spm=1001.2014.3001.55024 C1 M5 b& \8 C' r# I
https://en.wikipedia.org/wiki/Discounted_cumulative_gain' W. j! n2 s' b9 T1 n+ r
0 W* F9 A- t- y* w什么是极限多标签分类 (eXtreme multi-label Classification (XC))?
w& [- l/ M% o6 J3 }' @! c/ W! u标签数非常多(Million),典型的就是BoW数据标签。
! J# F- N3 z: D$ e8 e& ~% e. p极限多标签分类的典型应用:Image Caption(头大)。不过在Image Caption里面,Word之间存在序关系。XC可以看成是Image Caption的一个关键阶段,它能够选出与当前Image最相关的BoW。
+ k6 Q+ |8 Z3 f0 x; H6 K(上述都是靠过往经验吹的,近期没调研)。
# E8 E5 s/ j. B, ]% x) ~8 s( k! }& M! A7 h& x
先来看一下评价指标:3 s7 C/ e' W& p& E) k' v- X7 B% g
由于标签数非常多,且GroundTruth又非常小,因此通常意义上的分类精度、召回(多标签分类用macro或者micro的acc或者recall)等指标不work。
4 h% C w% h5 Q3 P" p* e- Z这些评价指标通常考虑了head/tail labels,也就是高频标签和低频标签;以及reciprocal pairs(互惠对)去除?
# W! R. e1 x. x+ L4 R I互惠对似乎?是指彼此相关的标签对,比如针对一个数据点,如果预测了标签A,如果标签B和A相关,那可以自然预测B。, B4 N2 I* W$ `! Q6 V r$ Z
为了避免这种trival prediction, reciprocal pairs应该被去除。
- o) b; S6 x' Q7 w& W3 ]- ~& y$ t6 M5 u8 ?# D# O
(1) Top-k kk Performance:
* B- y. b2 [! N+ o' S: f% a(Precision@ k ) P @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l \text{(Precision@$k$)}\text{P}@k := \frac{1}{k}\sum_{l \in \text{rank}_k (\hat{\mathbf{y}})} \mathbf{y}_l- T4 I- c W- m& q; A- L( g1 \' t/ e6 y
(Precision@k)P@k:=
! j. Y! c4 Q' Qk+ r E a) ]0 E! n8 h; n6 t. F
1
$ o, ?7 g e5 d# y
# x3 J# j0 E2 P
! N4 J+ ?4 C* g5 j; h$ Ul∈rank 1 A$ K9 K0 ?( s0 T
k$ K, h' J, Y; z8 R+ b2 P: q2 L
& }) x9 t( y. {% f ( + t( D4 X J* n, x2 p A& X
y; E6 o5 n4 v) R' q+ i( F
^1 N) E- J( L! U0 j- ~* l
+ K( y6 ]; J! h$ b% ]5 ?% d% h. s
)
9 f' ]" _' c+ v5 H8 j+ M/ t∑
2 V3 N& P% Z2 }
7 g* N/ y) X0 D" D y , }7 L5 {/ ?# g
l
. v6 L7 j: c% r8 w2 B% n
1 _5 O5 @2 m+ M. p3 l; b
& K* D: x/ H% a. a3 M: y5 ~2 L: Y. c g0 y3 P; w5 A' Y+ u
(Discounted Cumulative Gain (贴现累积收益))DCG @ k : = ∑ l ∈ rank k ( y ^ ) y l log ( l + 1 ) \text{(Discounted Cumulative Gain (贴现累积收益))} \text{DCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{\log(l+1)}
+ I: J0 J$ O1 A(Discounted Cumulative Gain (贴现累积收益))DCG@k:= $ y4 K. D' v9 t
l∈rank 0 H1 d+ x, R5 n* T+ t/ w
k" M' t) b- m9 ?( O& U
% W& H V' K: a6 C (
# c' Z/ K% V% |) ey
y" ]* S$ K& B^
# G3 _" H- E$ ^7 t( }' i! w* B+ l8 o' ^$ ?, r) _2 I
)% @5 U! E B- g/ s8 y1 A3 X+ {
∑* |( I; [/ N) r& V/ V K
* |- `! H( \- \2 n; y
/ U" Q1 T( m5 olog(l+1)0 x- F( \" w" |' O; [
y 1 N0 ?. R/ k5 @; K! u
l
* h. o1 C+ E& Z. U7 G3 g( K4 }, @/ f. P! F R1 h
/ \4 B$ M9 T8 J' N
+ @ n) G5 Q: j: J7 n. _3 j8 [$ S6 i- ] n6 Z
: Z. t4 M& n& z( {
(Normalized DCG)nDCG @ k : = DCG@ k ∑ l = 1 min ( k , ∣ ∣ y ∣ ∣ 0 ) 1 log ( l + 1 ) \text{(Normalized DCG)} \text{nDCG}@k := \frac{\text{DCG@$k$}}{\sum_{l=1}^{\min(k,||\mathbf{y}||_0)} \frac{1}{\log(l+1)}}9 L' z( |7 t& T2 g
(Normalized DCG)nDCG@k:=
_& X, b5 ?& c) l∑
/ u7 v! K5 I& l; Dl=1: `" s$ R3 l) f7 z- c, L
min(k,∣∣y∣∣ 3 F. l& Z% ?# T9 c3 Y
0
" n9 M9 b( `! ^; ^. e: L2 I, `1 Q9 }6 t' U7 N
)
J$ S, q8 f) F
! q* y' L5 t# v, w- v+ T, Q& S
2 a9 ?) J+ u0 W6 [; [0 O. H# qlog(l+1)
& M' D$ ]% u( M, _! H1
: z; [9 W( Z1 N6 P h& {
. l4 P' E, I% R- c5 V& O
, [ D, m/ r/ U. B! tDCG@k; d j. D+ O6 H3 [1 I: Q- p# C
: `. H( X0 D9 A( Y' K) x; m& Y! x3 z7 c8 X' C1 Q
( i N( y; O& A* Q& n) H
rank k ( y ) \text{rank}_k(\mathbf{y})rank
( p: ~3 S* N0 k$ k0 ~k
8 S9 l/ d) P, _; K% L
7 N: c, N8 A( k: D M+ T0 `7 H& r (y)为逆序排列y \mathbf{y}y的前k个下标。Note: DCG公式里的分母实际上不是l,而是from 1 to k.
4 ?/ p/ Y, e5 N1 s0 T5 X! r! X
' n; T, b$ g3 y/ L5 N靠后的标签按照对数比例地减小,说白了就是加权。至于为什么用log?两个事实:1. 平滑缩减; 2. Wang等人提供了理论支撑说明了log缩减方式的合理性。The authors show that for every pair of substantially different ranking functions, the nDCG can decide which one is better in a consistent manner. (看不懂,暂时不管)
$ P9 W4 O2 k6 w$ n7 C, O, T5 R% p
3 t3 b: q7 J6 [* s+ \& \(2) Top-k kk Propensity-score:
& s. @3 [: |) a$ \1 r4 d, P% t4 ?5 a- ?
有些数据集包含一些频度很高的标签(通常称之为head labels),可以通过简单地重复预测头部标签来实现高的P @ k \text{P}@kP@k。Propensity-score可以检查这种微不足道的行为。7 U) I# s( Z9 V* n2 o s7 _: A; S( F
( Propensity-score Precision ) PSP @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l p l (\text{Propensity-score Precision}) \text{ PSP}@k := \frac{1}{k} \sum_{l\in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l} K& J# d6 x5 K% t; F* k& O
(Propensity-score Precision) PSP@k:=
/ \, T. _+ u: mk
* G2 Y' {, J- |2 }4 }7 X" i( R5 n1
6 |3 k$ x4 d8 M. D3 W0 y$ l$ W u! Q- _8 K2 }; T" ?
) O0 c7 q+ |$ {* j8 G P
l∈rank - C. n- S7 s9 \* X$ R* c
k
( W8 p4 P+ ]: u9 r0 o$ V7 G, D- L. [' ~
( 5 F7 o# T" _; H/ E( G4 p
y. d, A+ x0 w. S% c
^6 M. P2 X9 p; R
' \; h8 r G+ G6 u )- y5 t. m- F- y2 W
∑
. @7 f, T% w% }! @" W( Y7 W# a# D9 X& k3 j3 z
% k) m% @& N& y4 g7 b K1 C
p 7 B8 y% \% w p* s* m* y4 ?# g9 d
l
" S; U% v! G' I8 I
5 f' h& @3 _7 H* e8 E+ F3 R% `4 E- _6 |* G! G0 V
y
: T& C& T- }* [4 L( N: y; _( A: P2 Fl$ X- u# Z5 M6 B5 g: A
2 G9 M5 W2 R: O. {% E. e H
- P2 J2 X$ {! @
% v9 n7 e8 Z! s4 k. x' `4 w: l
: }9 D& [; I2 Y9 g" U; e
! I3 j5 @) }$ D/ t% V7 Y
PSDCG @ k : = ∑ l ∈ rank k ( y ^ ) y l p l log ( l + 1 ) \text{PSDCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l\log(l+1)}
9 V% j- u9 M1 s9 M/ LPSDCG@k:=
* f$ k' g! P1 J6 t% o: @l∈rank
8 U" Y& t3 M0 @3 V6 _! Mk
k6 ~5 X4 w7 d! z! E4 f
& K- m% b5 g. ^0 B# f( k0 P7 f ( - A( p4 M8 c1 a- q6 v# C: l
y
" b7 w9 g0 Y' l7 j( p0 V C^
7 d! j( g! R0 Q! F
2 Q4 r, W" A7 ?" T; v1 L6 G4 Q+ a )
# G( O; I; l+ W2 v6 D- @∑( s) d& w8 p6 x J$ y) T' u: M
, U7 u+ [3 r8 K/ h5 M% s8 P3 b7 p. \2 p6 K/ C5 [: k" l+ t
p
& G( [9 c$ R) j0 Yl" R4 t% w2 }% _3 k, {
! P2 S. N! e5 F: q) [) H) P
log(l+1); p& Y0 S$ t; \5 I
y ) R8 q! k5 \# p: r
l! T0 n8 F$ l, X! S# F
9 G3 A; q& e, d8 T* @3 l
r/ j/ J/ H$ `9 l- v
. W: M& c% ^6 A: F% W( Q+ [, }# E: M1 s3 N
! v9 r: T% A: D- ]4 o* I- k; _
PSnDCG @ k : = PSDCG@ k ∑ l = 1 k 1 log ( l + 1 ) \text{PSnDCG}@k := \frac{\text{PSDCG@$k$}}{\sum_{l=1}^{k} \frac{1}{\log(l+1)}}+ l. j: {: V0 w6 B3 B/ @" x( q1 F9 B4 u
PSnDCG@k:=
. t5 d9 K; l7 W# ~$ N∑ 6 o% s: Y: j Y' d8 P
l=1
) T: D m- P/ q9 nk# Z8 K0 x8 Q) q3 R* K
) j s% V0 e, t
/ q- p7 |/ f0 ~/ T g, e Olog(l+1)
% @9 S! u0 a0 ~8 s* l1
7 z6 u( o3 Y( W8 i$ t/ Q- b) U1 A# @0 Q& z j% n$ r
4 L/ Z+ f* g8 i7 ]# z6 jPSDCG@k8 t7 `6 W6 E) u2 c3 k- Q
8 ^. C( |0 k# ^' s$ Y6 _" l5 Y- X' D: E- C: N
; {+ Q$ o: B9 y; G其中p l p_lp
$ o- L! X4 w! Ul
( s7 M0 |+ s- o. }) V. V Y8 \3 Y$ Z# F' A
为标签l ll的propensity-score,使得这种度量在missing label方面无偏差(unbiased)。) e* M# ~8 d2 m/ s b0 _# T+ A& v
Propensity-score强调在tail labels上的表现,而对预测head labels提供微弱的奖励。
6 Z9 ~4 T$ O7 H; ]/ T0 R————————————————
# V7 L3 [, o' v, m! n6 I版权声明:本文为CSDN博主「摆烂的-白兰地」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。& e0 n$ `' Y2 C* U) H' r
原文链接:https://blog.csdn.net/wuyanxue/article/details/126805190, Y( `& N" c; E5 \( H$ ` S
) G% z3 e2 s8 U# ?' M$ v
* Q8 r' F: c8 n# g |
zan
|