- 在线时间
- 538 小时
- 最后登录
- 2023-6-27
- 注册时间
- 2015-11-2
- 听众数
- 29
- 收听数
- 1
- 能力
- 0 分
- 体力
- 21623 点
- 威望
- 0 点
- 阅读权限
- 60
- 积分
- 6862
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 749
- 主题
- 600
- 精华
- 0
- 分享
- 0
- 好友
- 10
TA的每日心情 | 奋斗 2023-5-24 09:14 |
|---|
签到天数: 119 天 [LV.6]常住居民II
 群组: 2018高中组美赛 课堂 群组: 2018国赛冲刺 群组: 2018 夏令营面授课堂 群组: 2016美赛交流群组 |
机器学习笔记十:各种熵总结(一)
: Q+ U. K) ~2 S1 v" m一.什么是熵9 T6 e, n# H# k' H# `. j+ F' ]
Ⅰ.信息量" M$ c& M* @! U1 ~# f5 D( h$ d
首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? / Y. s$ @( g4 W
我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,因为反正这件事情会发生,因此可以认为我们没有接收到信息.但是要是一件平时觉得不可能发生的事情发生了,那么我们接收到的信息要大得多.因此,我们对于信息内容的度量就将依赖于概率分布p(x). / b8 b$ C- S# b4 n$ k
因此,我们想要寻找一个函数h(x)来表示信息的多少且是关于概率分布的单调函数.我们定义: 8 C4 p# v5 t$ \. i
![]()
$ `& a; N8 r9 F; a+ `* O4 W" C$ q# ^, |# }9 e
我们把这个公式叫做信息量的公式,前面的负号确保了信息一定是正数或者是0.(低概率事件带来高的信息量).
! G- A& p$ j( ^ K* ]5 o函数如下图所示 ) J- `: o8 ?6 S0 a4 p) Y0 M R
+ n( l# F* w/ ~5 H; ^" N
有时候有人也叫做自信息(self-information),一个意思啦。可以推广一下下。 / Z U ?6 _( K/ ~$ X+ u
联合自信息量: ![]()
* ]7 A7 ~# ^! W9 e, E% ]条件自信息量:![]()
# w" [9 H( M/ P3 e0 l; ?8 h/ b6 d通俗一点来说的话,就是概率论中很简单的推广就行了。有概率基础的话,这个很容易理解。这里因为实际上面使用二维的更多一点就以二维为例子,推广到多维的话也是可以的。& s/ l# w, f/ |6 i4 O0 A; |) A
# r. N- m4 D. _* @1 b3 MⅡ.熵# [* Q F6 O" p( \5 \. O
熵(entropy):上面的Ⅰ(x)是指在某个概率分布之下,某个概率值对应的信息量的公式.那么我们要知道这整个概率分布对应的信息量的平均值.这个平均值就叫做随机变量x的熵
7 u3 M) J4 P# @* [( P如下面公式: - n5 r8 R, @% e" \9 k6 ]
~4 P9 ~) Q( a$ G
这个公式的意思就是,随机变量x是服从p这个分布的,也就是在在p分布下面的平均自信息。也就得到了信息熵。信息熵的本质可以看做是某个分布的自信息的期望。
c9 Y0 p0 Z! {3 b这里举个例子感受一下:设X服从0-1分布,即 ![]()
' t/ F+ W0 g+ j则熵为:![]()
0 z" F Z3 [7 J/ H# R9 m n9 y$ b上面的计算是对于一个离散型的随机变量(分布)来做的,无非就是把所有的概率都得到,分别求出自信息然后相加就行了。很简单,别想得太多。 $ v* Q3 W7 L5 l8 X* @
代码:![]()
3 I+ I+ C7 ^0 n" ]: m( @, K结果为:+ `! p; W7 ?. Z/ r8 E- d
![]()
$ T( J) I8 }5 K7 p8 W' l从图中可以知道: 1.当p=0或者p=1的时候,随机变量可以认为是没有不确定性.
6 S; m& ~/ C5 u `2.当p=0.5的时候,H(p)=1,随机变量的不确定性最大.
* ]; ?2 s0 F6 { h6 @3 L那么“仿照”之前的信息量的公式,可以推广一下下啦。 , @; _, A: c4 x/ G6 p
假设一个概率分布有两个随机变量决定。其中x有n种取值,y有m种取值。那么可以得到一个nxm的联合概率分布的表。那么有:
, n/ v9 S0 H' k' N0 m" [: _复合熵(联合熵):![]()
5 v. C! ^ z; G' a0 Y5 e同样,复合熵的公式还可以推广到连续变量和多个变量的情况。这里就不写了。 条件熵:![]() 5 x- s. w$ Z/ G, t6 Q# i, R6 O8 w
: a* d! `9 f2 }上面这个公式可能有点难以理解,不知道这个公式是怎么来的。举一个例子来说明一下: + r& E- {8 a; z3 N4 O
如果以x表示学生体重,以y表示身高,以 p(x∣y)表示身高为某个特定的y时的体重为x的概率,把熵公式用到这个特殊情况得到是熵显然应当是 4 h: X! u: p: M
上面得到的计算公式是针对y为一个特殊值y时求得的熵。考虑到y会出现各种可能值,如果问已知学生身高时(不特指某一身高,而是泛指身高已经知道)的体重的熵(不确定程度),它应当是把前面的公式依各种y的出现概率做加权平均,那么就可以得到上面的条件熵的公式。. ]; M3 U, ?# a3 k
/ W2 t9 B* c% _
Ⅲ.变形总结$ l5 g8 p: c; a% O+ }
进过上面的之后,应该对于信息量和信息熵的几个公式有了了解。然后那几个公式还可以变形为一些常用的公式。这里总结一下
0 m4 G; |% P1 i3 W# k6 o% E* n首先要先介绍一下条件分布的乘法定理:& E- y% ]' \3 U/ A' S; y
![]()
# s' [5 K5 y# b6 N* m$ @6 O8 t( l4 Z! `: l5 S
然后把之前条件熵式子使用上面这个公式改写一下,可以写为:& p( W1 r( G. H* a
![]()
1 Q$ K, F: Y6 v f$ `当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到的时候,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)
' q: z& Y+ G8 u$ _2 ]
. [: c" J# ]) {上面的式子表明,只要你能够得到联合分布和y的分布就能够求出条件熵了。事实上,还能够更加简化成为常见的形式:
+ I" t- o# V6 r9 r9 l这里利用上面的公式(以离散型为例子)直接推导,有
- J' q) h& g3 f. N$ k4 [4 o! V, ? " A. c' _* _) q4 k
$ q D/ R" z! K( r! o; J证明: ![]()
3 |6 r! o0 Q% r( T4 ?这个公式把复合熵、条件熵以及熵联系到一起了。它们也显示了熵的对称性。4 Q: Y, m1 u, G: J1 J
, h: r. Z. j8 Z0 d |
zan
|