- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563317 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174218
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
$ ^- G6 W4 e0 [* M; X
极限多标签分类-评价指标# N! C# ~- j; U9 h- S( c2 S; W8 ]# a
7 J# I# Q$ H4 B) y& s
极限多标签分类-评价指标. j; G( Q( `6 _( g$ W3 m, T% W
References:1 Z/ r: T& s1 H/ J7 h5 I
http://manikvarma.org/downloads/XC/XMLRepository.html
7 l" [9 d3 c2 g+ ?- F8 Jhttps://blog.csdn.net/minfanphd/article/details/126737848?spm=1001.2014.3001.5502
- S6 r1 i7 O- e+ v6 R/ ihttps://en.wikipedia.org/wiki/Discounted_cumulative_gain
: E' M$ ]/ s4 \$ j& h$ \2 a$ L! ]+ q3 o) I
什么是极限多标签分类 (eXtreme multi-label Classification (XC))?4 y. u0 ^8 @. H' l+ F1 G) a; J
标签数非常多(Million),典型的就是BoW数据标签。
) p" g& S5 L8 c8 J2 t9 c极限多标签分类的典型应用:Image Caption(头大)。不过在Image Caption里面,Word之间存在序关系。XC可以看成是Image Caption的一个关键阶段,它能够选出与当前Image最相关的BoW。2 `' I1 v2 K! ^3 n
(上述都是靠过往经验吹的,近期没调研)。: J* d, x0 [ G: Y* C1 T& Q. Y
& h+ [& X. O% P8 P/ C6 y, u3 J先来看一下评价指标:2 y( M5 a) U* t! r7 x' L" @9 f
由于标签数非常多,且GroundTruth又非常小,因此通常意义上的分类精度、召回(多标签分类用macro或者micro的acc或者recall)等指标不work。
& |6 _; U# [- k# K) i这些评价指标通常考虑了head/tail labels,也就是高频标签和低频标签;以及reciprocal pairs(互惠对)去除?
8 F2 R5 Z& O! H' x& D4 H# I( u互惠对似乎?是指彼此相关的标签对,比如针对一个数据点,如果预测了标签A,如果标签B和A相关,那可以自然预测B。 U8 ^9 Y2 p: ]; i V
为了避免这种trival prediction, reciprocal pairs应该被去除。/ e1 h; q# p. x# c+ h# u
1 `7 n. M4 j" j* d R O2 Z(1) Top-k kk Performance:
' J/ Y K: s4 M0 q) Y" k(Precision@ k ) P @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l \text{(Precision@$k$)}\text{P}@k := \frac{1}{k}\sum_{l \in \text{rank}_k (\hat{\mathbf{y}})} \mathbf{y}_l7 a1 s; {- y; m- b4 X
(Precision@k)P@k:= $ S5 @) H* }! b
k; w N8 H. J4 b0 W5 G3 }- z
1' c. _2 w* q6 C
' S( {( |1 K4 R' J' s& V
r3 x; B$ K3 i0 {" v" O- Hl∈rank
' M: ~+ J" p& i1 I$ e2 f. Y1 ak
- `. p2 Z" z3 ]: b! p/ k. W. Z# J: ] P) ~
( 9 G" L4 a) s+ e! O! j
y2 F, ^$ t$ i) M0 Z6 E8 |
^5 I- K2 T Z0 V% ^* I3 m* W
6 f. y3 m5 o' ~0 w
)
" R& a* L% x/ u∑
1 y0 s+ e6 \7 i
# B- }5 _ ^, i4 V y ; G; T+ X3 N" g, D
l& n: d3 U5 g) h; p9 K0 h. V( z7 R
3 F% `1 L. W9 g& D" }
& o3 R( U {+ k% }8 `
6 H0 \7 ?4 H1 X! e4 V# f(Discounted Cumulative Gain (贴现累积收益))DCG @ k : = ∑ l ∈ rank k ( y ^ ) y l log ( l + 1 ) \text{(Discounted Cumulative Gain (贴现累积收益))} \text{DCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{\log(l+1)}
0 ^4 O0 P# \# R r/ j- {1 i(Discounted Cumulative Gain (贴现累积收益))DCG@k:= 5 k7 i: k. a8 m0 f: o
l∈rank + G9 q {1 n! b% n; M
k) _% e7 N5 R. C4 l( E7 W
+ p) u2 p/ V1 a
(
: \6 u* O2 W. X" _* uy
/ }; C, }6 J) x% h^# T$ e7 V( X% i- {% n' Z* _
4 T) Y8 o3 R0 q
)
0 ?2 v" Y# I- V$ d; K∑+ S7 \1 z. u- d; v& m) W
( l( w" r* Y# R/ \, c* i4 {* h( S0 t' V; @+ e, s
log(l+1)
: w; d4 q! D" t, [0 y' vy
. E( [1 w0 q' i* u* yl5 [7 n4 [) S) [) F
. c: I8 a0 ^% A5 m. B E7 o
% X7 D; a K ~) U
# v( ]: ?" H% o0 R, U0 f" m% ~' f C6 K. s
& u5 L0 J+ \0 V/ x7 u
(Normalized DCG)nDCG @ k : = DCG@ k ∑ l = 1 min ( k , ∣ ∣ y ∣ ∣ 0 ) 1 log ( l + 1 ) \text{(Normalized DCG)} \text{nDCG}@k := \frac{\text{DCG@$k$}}{\sum_{l=1}^{\min(k,||\mathbf{y}||_0)} \frac{1}{\log(l+1)}}
4 B4 v1 x! ^ m9 ]" y( p4 O3 G(Normalized DCG)nDCG@k:=
# S. c! j- d: f∑
4 d5 K$ `$ K8 I: K0 S( M1 H& l; Al=1# K- {5 y6 L7 G0 I, l0 }
min(k,∣∣y∣∣
3 i& N, g* j$ P& K00 q' F. `- y; v/ r ?/ V8 R( y
6 ^, M7 R4 f# X )
' S* @2 a. j1 B4 G' d
( |' j) t ^) B. Z4 g( [
- ]: C' `9 s+ D. Glog(l+1)
4 q9 @7 Q4 J& b1
+ W/ e/ Y. T$ h9 n' f% S+ [) F9 U4 [2 v$ [' `$ l
% ^9 u+ Z3 u5 j
DCG@k
) {3 G0 a1 u' B% O3 E, Q
) e1 B% M4 G) O* `/ F3 w9 O8 ]6 z. ` N* p6 ~ }
+ h( }1 J N, i* B8 j
rank k ( y ) \text{rank}_k(\mathbf{y})rank " S" H6 {0 {7 A8 F8 g, O' p
k
3 y" J; b+ W l
0 c9 }4 F6 [8 B. G (y)为逆序排列y \mathbf{y}y的前k个下标。Note: DCG公式里的分母实际上不是l,而是from 1 to k.
3 x# z9 b% f' |1 H
5 s% W. L" X1 k/ p z5 i靠后的标签按照对数比例地减小,说白了就是加权。至于为什么用log?两个事实:1. 平滑缩减; 2. Wang等人提供了理论支撑说明了log缩减方式的合理性。The authors show that for every pair of substantially different ranking functions, the nDCG can decide which one is better in a consistent manner. (看不懂,暂时不管)
- t7 o# M4 P/ g( ?* b% r' n2 G! q# O8 K$ f$ g) N" ? T! u. N
(2) Top-k kk Propensity-score:
/ o0 \9 L% X; c% R$ B
3 }5 a" W3 E7 g, n" L5 ]1 g0 [6 n4 ^有些数据集包含一些频度很高的标签(通常称之为head labels),可以通过简单地重复预测头部标签来实现高的P @ k \text{P}@kP@k。Propensity-score可以检查这种微不足道的行为。
, M& [' P! o7 e( Propensity-score Precision ) PSP @ k : = 1 k ∑ l ∈ rank k ( y ^ ) y l p l (\text{Propensity-score Precision}) \text{ PSP}@k := \frac{1}{k} \sum_{l\in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l}4 O. }5 d% k/ H& P1 d% ~7 I
(Propensity-score Precision) PSP@k:=
" t9 I- v# ^0 @9 F: |% Y mk
9 E8 X* c6 b, U- D* H9 s1
& M# m% d, ?8 n: J2 i( [ X3 {: z" M9 p, y0 h
1 R; u( o# ?8 r. ?- gl∈rank
4 w" t. ?0 [" K( N+ xk) t# ?$ d* d- s. D( X2 `! J
+ o" T& |- ~5 o- {" a" B7 \
(
* X$ @# }6 T" @" ^1 P5 Ry3 o2 f& o% a7 P3 |
^3 ? b6 H! ], M( ^5 D
" @/ B: c# w$ r )
/ D9 N5 Y1 J+ O2 m6 Q+ s9 j7 l∑" {; {" H: a D, v% o+ ]# _/ \* s
4 s2 s: h8 v C( {- r3 j9 z
* P. I# y6 O ^. P7 G% M( [p
+ W8 \/ u# e# W# j3 ul
$ l) q7 R: L0 O1 q5 D) M+ `: E; c" h, H
* z6 b1 n! E5 C5 ]1 Ty
% Z- S% \. c$ S6 |: ]: u4 L# Ml
# ]( B! ]$ D- ?7 ]3 {" G
/ u4 |+ u# w/ S+ t& l
5 [5 @# W' E, _+ m, N. @* q t: X ^6 [; K2 u! C+ |& y* F3 V }+ {
, B6 H! G8 R+ @
: M) z) |7 o& D# R* g1 N- @ v
PSDCG @ k : = ∑ l ∈ rank k ( y ^ ) y l p l log ( l + 1 ) \text{PSDCG}@k := \sum_{l \in \text{rank}_k(\hat{\mathbf{y}})} \frac{\mathbf{y}_l}{p_l\log(l+1)}8 @/ }; _ _0 I' o
PSDCG@k:= ; @. @/ M5 q8 B9 n0 F% b+ A$ Y% b
l∈rank ( o6 A; Q/ \- L( K3 W) [+ I
k
7 E' q5 S; D( K G7 H% F* @& p6 V/ s' `8 `! N5 q9 G
(
4 F6 U8 O4 j& _/ c- h7 B' T9 oy# ]! a" S$ E3 p: g* C$ A+ \
^
: P& W" P+ y, b; Q! ^+ {: b, J0 L* \7 D$ g
)
8 ?9 n5 Z# M0 C# `- r∑( h7 z* u" ^' i! {8 q; g' T7 E7 P
8 G# e5 E5 D. T+ ?" ^, b
/ n; e( E" R8 ]: @# |9 y" Op
' G8 v2 @# D7 U9 G# C T/ x/ Rl$ m: T4 l3 h, i1 P: L& u! K/ q
) v/ m1 Q4 \$ Y. R; m' `' T5 ` log(l+1)
% T" d X ^" Ly " j, S5 G% f/ f3 G
l$ b7 Y- J- u& r5 Q) _" \1 h& o! Y
' {( h3 ]5 @' p* v! l# D& [' A4 @4 ?6 C& Z! A6 @% g5 H
& a3 }, q$ E; L4 g4 U* t
7 \* _( u$ j7 \8 d
8 U! V+ y# L8 k, q7 \4 WPSnDCG @ k : = PSDCG@ k ∑ l = 1 k 1 log ( l + 1 ) \text{PSnDCG}@k := \frac{\text{PSDCG@$k$}}{\sum_{l=1}^{k} \frac{1}{\log(l+1)}}, j% n4 _' {9 @( R" @
PSnDCG@k:= / g6 g$ J7 n, U% a" Z8 r) |- d- _$ K, f& Z
∑
( T; [4 x6 w! b. P% wl=11 E. Z' ^; o7 G. U+ s+ V
k3 D: K$ m3 o. N8 Y
4 V0 O/ V! J8 o$ V+ P
! ]5 T0 U, E, z; U1 ulog(l+1)) L) ]! F, g0 w9 ]0 e
1
- k7 x o$ [6 V" S1 g+ g
3 j8 }4 Y q# Z1 U
0 o( d# P' b( nPSDCG@k9 L" a, v+ @1 S
`- ~% V. f) d1 W$ U8 X
0 D- \0 Z0 g1 q0 S5 @* \" F& s/ v9 |# _4 e( i
其中p l p_lp 6 q0 @8 ^, S8 B r2 _# f3 Z, h
l" e2 ~6 N* e3 N2 S- F, f) `
# E5 ~% V- c5 z4 k. q 为标签l ll的propensity-score,使得这种度量在missing label方面无偏差(unbiased)。' U& ]) ~6 l# B" G" ^+ R
Propensity-score强调在tail labels上的表现,而对预测head labels提供微弱的奖励。1 D: w8 J d# \/ I" [0 t
————————————————1 f- ~8 W0 O( G9 h4 j8 E6 y7 ]
版权声明:本文为CSDN博主「摆烂的-白兰地」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。2 A$ Y7 h# L1 |% b/ W7 X: h8 j, H
原文链接:https://blog.csdn.net/wuyanxue/article/details/126805190
! X5 R: D; W. ]& C
- [; }9 E7 w1 E7 A' h6 e& ?: }4 {8 _8 F. Y% i" Q
|
zan
|