QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2269|回复: 0
打印 上一主题 下一主题

机器学习笔记十:各种熵总结(一)

[复制链接]
字体大小: 正常 放大

600

主题

29

听众

6862

积分

  • TA的每日心情
    奋斗
    2023-5-24 09:14
  • 签到天数: 119 天

    [LV.6]常住居民II

    群组2018高中组美赛 课堂

    群组2018国赛冲刺

    群组2018 夏令营面授课堂

    群组2016美赛交流群组

    跳转到指定楼层
    1#
    发表于 2018-11-1 10:15 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    机器学习笔记十:各种熵总结(一)
    : N( y8 S& j$ a2 t一.什么是熵( B& ?) P3 V. [, L4 p7 v& j" k2 n- O
    Ⅰ.信息量
    - T0 A6 G1 {& ^: C/ Q首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? 4 R* n  G: F0 N2 b
    我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,因为反正这件事情会发生,因此可以认为我们没有接收到信息.但是要是一件平时觉得不可能发生的事情发生了,那么我们接收到的信息要大得多.因此,我们对于信息内容的度量就将依赖于概率分布p(x).
    . r$ N1 s9 S6 t) L9 _6 T因此,我们想要寻找一个函数h(x)来表示信息的多少且是关于概率分布的单调函数.我们定义: " ?/ O& T5 p3 w) J) E. o
    ) z1 ?" M( D3 y8 ?
    $ U/ B  S% W% a
    我们把这个公式叫做信息量的公式,前面的负号确保了信息一定是正数或者是0.(低概率事件带来高的信息量).
    * J, I. u% e4 A& E函数如下图所示
    . z  y, m- r) ~- x1 X( G8 o
    : P8 r; a/ N% O有时候有人也叫做自信息(self-information),一个意思啦。可以推广一下下。 ) f  O3 o0 G8 S* U0 Z, X& v1 t
    联合自信息量: 0 I$ S- C* l( t9 c) @
    条件自信息量:9 [& f% ~& K# U
    通俗一点来说的话,就是概率论中很简单的推广就行了。有概率基础的话,这个很容易理解。这里因为实际上面使用二维的更多一点就以二维为例子,推广到多维的话也是可以的。
    8 y" S; w, R3 a! ^! `; _; f; m: V* m& G' o# R9 O
    Ⅱ.熵
    + R4 q* t; m" H  ^9 F熵(entropy):上面的Ⅰ(x)是指在某个概率分布之下,某个概率值对应的信息量的公式.那么我们要知道这整个概率分布对应的信息量的平均值.这个平均值就叫做随机变量x的熵 4 B- g" W4 T! Y- [7 Z& w
    如下面公式: 6 D$ ]9 e0 U# Y2 R
    - o4 V1 N& m& V7 Z
    这个公式的意思就是,随机变量x是服从p这个分布的,也就是在在p分布下面的平均自信息。也就得到了信息熵。信息熵的本质可以看做是某个分布的自信息的期望。
    1 u, q" T, @) \+ Z6 W这里举个例子感受一下:设X服从0-1分布,即
    4 u, D9 y( S3 E' Z. F! G8 H1 s则熵为:' I7 U8 z  a, G; g% @
    上面的计算是对于一个离散型的随机变量(分布)来做的,无非就是把所有的概率都得到,分别求出自信息然后相加就行了。很简单,别想得太多。
    ( m2 ?' H( K9 ]6 Q" I/ @代码:
    / v  J: W2 ]! m' N5 L0 x结果为:  I3 o: f& i7 v) ^8 C; A* G# i$ T
    . R( c& o' n/ C2 t  a

    从图中可以知道:

    1.当p=0或者p=1的时候,随机变量可以认为是没有不确定性.
      {7 ?0 Y4 q& V  |, v* l* W' m1 z5 p2.当p=0.5的时候,H(p)=1,随机变量的不确定性最大.
    : Q6 r9 k' x' S! b  d. F那么“仿照”之前的信息量的公式,可以推广一下下啦。 3 b% U0 P; m% H4 w- O: J7 {6 T2 E
    假设一个概率分布有两个随机变量决定。其中x有n种取值,y有m种取值。那么可以得到一个nxm的联合概率分布的表。那么有:
    " O- Y4 v# V0 @4 J1 A1 `复合熵(联合熵)+ c4 }/ x% c- _( U

    同样,复合熵的公式还可以推广到连续变量和多个变量的情况。这里就不写了。

    条件熵:

    1 e8 ]0 ]* L' N# w

    9 G( {( {6 ]( R( P" k上面这个公式可能有点难以理解,不知道这个公式是怎么来的。举一个例子来说明一下: 9 Z3 e, X: k6 Z4 t6 K2 L
    如果以x表示学生体重,以y表示身高,以 p(x∣y)表示身高为某个特定的y时的体重为x的概率,把熵公式用到这个特殊情况得到是熵显然应当是
    3 ?: J; J: `4 j8 N6 e0 v9 _上面得到的计算公式是针对y为一个特殊值y时求得的熵。考虑到y会出现各种可能值,如果问已知学生身高时(不特指某一身高,而是泛指身高已经知道)的体重的熵(不确定程度),它应当是把前面的公式依各种y的出现概率做加权平均,那么就可以得到上面的条件熵的公式。
    ! i: d! h2 m! B0 w9 v  m2 X+ Q3 v
      a( Q8 Y  _. U2 p$ P! p3 tⅢ.变形总结
    9 m% r+ Z/ h1 V4 v% M进过上面的之后,应该对于信息量和信息熵的几个公式有了了解。然后那几个公式还可以变形为一些常用的公式。这里总结一下
    2 ^5 ]1 F3 a" _首先要先介绍一下条件分布的乘法定理:
    * V! A- n% u& {) p
    . R! q$ E; y# T6 Q( {
    * I0 h1 _) p5 c, E然后把之前条件熵式子使用上面这个公式改写一下,可以写为:
    9 J" u, O- z: l5 L$ H  D
    ( G8 y: R$ z0 @% V. |当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到的时候,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)
    9 ?+ [/ h& F+ w1 O9 C: u- ^# }7 K$ C$ V- K8 U
    上面的式子表明,只要你能够得到联合分布和y的分布就能够求出条件熵了。事实上,还能够更加简化成为常见的形式:
    - M0 R( F* z" q3 C1 u: b5 ~, ?  g这里利用上面的公式(以离散型为例子)直接推导,有 * p  \5 e6 \7 `- H

    ) E" o" L& i. \) y
    ! b, K+ N+ Z9 X证明: % s$ r9 O; H8 v7 Z2 l1 b
    这个公式把复合熵、条件熵以及熵联系到一起了。它们也显示了熵的对称性。
    + D( p; V+ m+ Y9 C. [  i9 X' a  S7 x2 W6 \; t3 }6 `8 u/ L
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-15 15:25 , Processed in 0.426784 second(s), 50 queries .

    回顶部