数学建模社区-数学中国

标题: 机器学习算法——信息熵 [打印本页]

作者: 重光兰衣    时间: 2018-11-2 08:53
标题: 机器学习算法——信息熵
机器学习算法——信息熵信息熵(Entropy)9 _0 l: h! \( k0 t) R" n0 ^- h
        信息是个很抽象的概念。我们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本书中到底有多少信息量。直到 1948 年,香农(C. E. Shannon)提出了“信息熵”(shāng) 的概念,才解决了对信息的量化度量问题。熵的概念发展成为信息论、数据压缩等学科的基础,在很多科学研究的领域尤其是计算机科学中有着广泛的应用。
2 E5 Z7 G% L: c& h( h: c        实际上,一条信息的信息量大小和它的不确定性或存在概率有直接的关系。比如说,我们要搞清楚一件非常非常不确定的事,或是我们一无所知的事情,就需要了解大量的信息。相反,如果我们对某件事已经有了较多的了解,我们不需要太多的信息就能把它搞清楚。所以,从这个角度,我们可以认为,信息量的度量就等于不确定性的多少。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。因此可以认为信息熵是系统有序化程度的一个度量。 Shannon 借鉴了热力学的概念,把信息与其存在概率关联起来并称之为“信息熵”,并给出了计算信息熵的数学表达式:  H = - ∑  Pi * log2 Pi
: N1 U6 I1 P/ w/ Y# z
' b' B) F  t/ O! h假设有一个字符串要求它的信息熵,其中Pi是字符i出现的概率(该字符出现次数/所有字符数),然后将所有的Pi乘上取对数后的值log2 Pi后累加,最后取负,得到字符串的信息熵。
% R6 y7 f7 h# H9 T5 T/ A本题要求计算给定字符串按照每个字符统计的信息熵。   P% L- t$ K! n. p: q0 e
输入:一个字符串,请忽略所有非字母的字符(即只关注a-z, A-Z),且不区分字母的大小写。5 B& `+ U4 m$ }: n4 I/ z+ F: A4 S
提示:可以用StdIn.readAll()读入字符串的所有内容- P0 e! G; M: y2 Y- e
输出:对应字符串的熵值,输出请用格式化输出("%4.2f\n")
; o/ f7 m; ^, i3 a样例输入:To be or not To be,↵$ `$ J$ H* U1 H6 N1 D" H4 i/ ^, B
that is the question↵' U9 p  _5 |8 a$ |! l
样例输出:
. M6 R6 L" |& }( w 捕获.PNG
2 P6 T+ z$ i2 T7 ?4 q) X 捕获.PNG + |3 m6 R3 M& l' v5 ]/ q

2 y- O, @5 \0 b) [
0 k& Q. m+ N* ]! f, C/ ]( P; V& J

6 \* Z! S% d( W6 \, M, \  x0 ]( H9 Z. ]( e( s) E4 J( F

2 z) w& N" g8 f+ }2 d; e9 ?5 ^, _3 }8 ^4 ?8 U/ U! ], c* E





欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5