数学建模社区-数学中国
标题: 机器学习笔记十:各种熵总结(二) [打印本页]
作者: 重光兰衣 时间: 2018-11-1 10:22
标题: 机器学习笔记十:各种熵总结(二)
机器学习笔记十:各种熵总结(二)二.相对熵相对熵又称互熵,交叉熵,鉴别信息,Kullback熵,Kullback-Leible散度(即KL散度)等。
6 p, k5 B' C% e设p(x)和q(x)是取值的两个概率概率分布,则p对q的相对熵为:
$ P# A- h$ A! z$ J) J4 M
在一定程度上面,相对熵可以度量两个随机变量的距离。也常常用相对熵来度量两个随机变量的距离。当两个随机分布相同的时候,他们的相对熵为0,当两个随机分布的差别增大的时候,他们之间的相对熵也会增大。
$ b7 K, c. @$ U( L# H但是事实上面,他并不是一个真正的距离。因为相对熵是不具有对称性的,即一般来说
相对熵还有一个性质,就是不为负。
- c8 b- ?* k9 i. p9 H
8 u& K+ b+ h* j5 }三.互信息
& s- J* Q* K: g! d互信息(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不确定性。
: T8 b$ u$ ^( q, W两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。
0 V( o C8 B+ B4 F3 L
) ?: Y! I1 b* }% @% g
# J" P+ C# P* X& E- F5 k! ?& g1 p那么互信息有什么更加深层次的含义呢?首先计算一个式子先:
+ k! h9 U0 h; ~
% u* n, }. S0 F# H4 v( `
从这个公式可以知道,X的熵减去X和Y的互信息之后,可以得到在Y给定的情况下X的熵。
四.总结
! e/ [" T3 [% D1 S I% W& A
1 r. u6 _% ]0 w3 \* p: y+ ?1 t4 S' P. Z. F2 x* _
5 G( j' }5 \/ ^( P4 s
| 欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) |
Powered by Discuz! X2.5 |