QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2275|回复: 0
打印 上一主题 下一主题

机器学习笔记十:各种熵总结(一)

[复制链接]
字体大小: 正常 放大

600

主题

29

听众

6862

积分

  • TA的每日心情
    奋斗
    2023-5-24 09:14
  • 签到天数: 119 天

    [LV.6]常住居民II

    群组2018高中组美赛 课堂

    群组2018国赛冲刺

    群组2018 夏令营面授课堂

    群组2016美赛交流群组

    跳转到指定楼层
    1#
    发表于 2018-11-1 10:15 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    机器学习笔记十:各种熵总结(一)
    : Q+ U. K) ~2 S1 v" m一.什么是熵9 T6 e, n# H# k' H# `. j+ F' ]
    Ⅰ.信息量" M$ c& M* @! U1 ~# f5 D( h$ d
    首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? / Y. s$ @( g4 W
    我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,因为反正这件事情会发生,因此可以认为我们没有接收到信息.但是要是一件平时觉得不可能发生的事情发生了,那么我们接收到的信息要大得多.因此,我们对于信息内容的度量就将依赖于概率分布p(x). / b8 b$ C- S# b4 n$ k
    因此,我们想要寻找一个函数h(x)来表示信息的多少且是关于概率分布的单调函数.我们定义: 8 C4 p# v5 t$ \. i

    $ `& a; N8 r9 F; a+ `* O4 W" C$ q# ^, |# }9 e
    我们把这个公式叫做信息量的公式,前面的负号确保了信息一定是正数或者是0.(低概率事件带来高的信息量).
    ! G- A& p$ j( ^  K* ]5 o函数如下图所示 ) J- `: o8 ?6 S0 a4 p) Y0 M  R
    + n( l# F* w/ ~5 H; ^" N
    有时候有人也叫做自信息(self-information),一个意思啦。可以推广一下下。 / Z  U  ?6 _( K/ ~$ X+ u
    联合自信息量:
    * ]7 A7 ~# ^! W9 e, E% ]条件自信息量:
    # w" [9 H( M/ P3 e0 l; ?8 h/ b6 d通俗一点来说的话,就是概率论中很简单的推广就行了。有概率基础的话,这个很容易理解。这里因为实际上面使用二维的更多一点就以二维为例子,推广到多维的话也是可以的。& s/ l# w, f/ |6 i4 O0 A; |) A

    # r. N- m4 D. _* @1 b3 MⅡ.熵# [* Q  F6 O" p( \5 \. O
    熵(entropy):上面的Ⅰ(x)是指在某个概率分布之下,某个概率值对应的信息量的公式.那么我们要知道这整个概率分布对应的信息量的平均值.这个平均值就叫做随机变量x的熵
    7 u3 M) J4 P# @* [( P如下面公式: - n5 r8 R, @% e" \9 k6 ]
      ~4 P9 ~) Q( a$ G
    这个公式的意思就是,随机变量x是服从p这个分布的,也就是在在p分布下面的平均自信息。也就得到了信息熵。信息熵的本质可以看做是某个分布的自信息的期望。
      c9 Y0 p0 Z! {3 b这里举个例子感受一下:设X服从0-1分布,即
    ' t/ F+ W0 g+ j则熵为:
    0 z" F  Z3 [7 J/ H# R9 m  n9 y$ b上面的计算是对于一个离散型的随机变量(分布)来做的,无非就是把所有的概率都得到,分别求出自信息然后相加就行了。很简单,别想得太多。 $ v* Q3 W7 L5 l8 X* @
    代码:
    3 I+ I+ C7 ^0 n" ]: m( @, K结果为:+ `! p; W7 ?. Z/ r8 E- d

    $ T( J) I8 }5 K7 p8 W' l

    从图中可以知道:

    1.当p=0或者p=1的时候,随机变量可以认为是没有不确定性.
    6 S; m& ~/ C5 u  `2.当p=0.5的时候,H(p)=1,随机变量的不确定性最大.
    * ]; ?2 s0 F6 {  h6 @3 L那么“仿照”之前的信息量的公式,可以推广一下下啦。 , @; _, A: c4 x/ G6 p
    假设一个概率分布有两个随机变量决定。其中x有n种取值,y有m种取值。那么可以得到一个nxm的联合概率分布的表。那么有:
    , n/ v9 S0 H' k' N0 m" [: _复合熵(联合熵)
    5 v. C! ^  z; G' a0 Y5 e

    同样,复合熵的公式还可以推广到连续变量和多个变量的情况。这里就不写了。

    条件熵:

    5 x- s. w$ Z/ G, t6 Q# i, R6 O8 w

    : a* d! `9 f2 }上面这个公式可能有点难以理解,不知道这个公式是怎么来的。举一个例子来说明一下: + r& E- {8 a; z3 N4 O
    如果以x表示学生体重,以y表示身高,以 p(x∣y)表示身高为某个特定的y时的体重为x的概率,把熵公式用到这个特殊情况得到是熵显然应当是 4 h: X! u: p: M
    上面得到的计算公式是针对y为一个特殊值y时求得的熵。考虑到y会出现各种可能值,如果问已知学生身高时(不特指某一身高,而是泛指身高已经知道)的体重的熵(不确定程度),它应当是把前面的公式依各种y的出现概率做加权平均,那么就可以得到上面的条件熵的公式。. ]; M3 U, ?# a3 k
    / W2 t9 B* c% _
    Ⅲ.变形总结$ l5 g8 p: c; a% O+ }
    进过上面的之后,应该对于信息量和信息熵的几个公式有了了解。然后那几个公式还可以变形为一些常用的公式。这里总结一下
    0 m4 G; |% P1 i3 W# k6 o% E* n首先要先介绍一下条件分布的乘法定理:& E- y% ]' \3 U/ A' S; y

    # s' [5 K5 y# b6 N* m$ @6 O8 t( l4 Z! `: l5 S
    然后把之前条件熵式子使用上面这个公式改写一下,可以写为:& p( W1 r( G. H* a

    1 Q$ K, F: Y6 v  f$ `当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到的时候,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)
    ' q: z& Y+ G8 u$ _2 ]
    . [: c" J# ]) {上面的式子表明,只要你能够得到联合分布和y的分布就能够求出条件熵了。事实上,还能够更加简化成为常见的形式:
    + I" t- o# V6 r9 r9 l这里利用上面的公式(以离散型为例子)直接推导,有
    - J' q) h& g3 f. N$ k4 [4 o! V, ?" A. c' _* _) q4 k

    $ q  D/ R" z! K( r! o; J证明:
    3 |6 r! o0 Q% r( T4 ?这个公式把复合熵、条件熵以及熵联系到一起了。它们也显示了熵的对称性。4 Q: Y, m1 u, G: J1 J

    , h: r. Z. j8 Z0 d
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-17 19:26 , Processed in 0.590036 second(s), 49 queries .

    回顶部