- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563314 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174217
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
朴素贝叶斯分类器_以python为工具【Python机器学习系列(十三)】
5 X2 @4 Q! P; \" ?- O# ]+ m! E+ g; J' U- n l K+ H
文章目录3 L; S% h# {; F
1. 朴素贝叶斯算法原理; r) j8 z7 P& W' N5 O9 l0 S
2. sklearn提供的朴素贝叶斯算法
# d l8 y" Y4 r( x5 [& C3. 伯努利朴素贝叶斯 BernoulliNB()
: w9 q( D6 n3 M- k5 K$ s& ]4. 多项式朴素贝叶斯 MultinomialNB()
( }: N) a! n8 N: c/ P. R% g5. 高斯朴素贝叶斯 GaussianNB()
% B2 ~% q$ P6 J3 |; K* _ ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ
; C/ i3 k' I6 h* |/ y
; \8 i5 Q1 a9 ^# u9 ]7 E) e. [ ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ- Z0 I# p7 u2 x, z5 Q l4 `" f
3 }7 q( b* s3 w1 _0 X大家好,我是侯小啾!
* ?- M2 W9 U! H5 T' A) y8 N/ n1 R2 a% D! g
今天分享的话题是朴素贝叶斯分类器算法。2 W& B# _; g# \, S
: M+ Z8 {: K, }+ k( H" h+ Z
🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ🌹꧔ꦿ
, u8 U M* s7 L) ~* U, `4 ~( M$ T% j' j0 L
1. 朴素贝叶斯算法原理
/ w: q1 G" @1 q, {使用贝叶斯算法,首先需要理解的是以下两个公式:& o3 M1 O; G5 Z5 T2 U; b
0 ]# M+ M4 D! b4 P1 A0 |3 h. O全概率公式
- w! M- G2 G8 U/ j j
$ W& p' k& D% X# X& I% p ( B ) = P ( A 1 ) × P ( B ∣ A 1 ) + P ( A 2 ) × P ( B ∣ A 2 ) + . . . + P ( A n ) × P ( B ∣ A n ) P(B)=P(A_1)×P(B|A_1)+P(A_2)×P(B|A_2)+...+P(A_n)×P(B|A_n)P(B)=P(A
4 e" W! i8 [7 x b# M$ A V1
* C1 E3 K3 _4 S% }0 y5 `' M% Y" H3 U
)×P(B∣A
c* Q2 F0 o& x( a+ t14 r! ^( T. a7 P/ f$ K5 S$ \
4 \& [8 x H- d: Q- S
)+P(A
( \ c) G4 g' W* q- z27 G/ z7 |' Y& s+ ^ L
( g3 \7 Q% M# y7 k5 K )×P(B∣A
: E# S5 z4 ?" A2
* ?5 N! @' m8 h' K
, c0 z. \4 P \! @" B5 E )+...+P(A
6 l, ?7 p$ |8 K0 E/ D; O$ ]n% Q+ j1 u# P* }. A. r
- K% V y! ] k% _ )×P(B∣A
4 ]; f# ^+ S5 T+ Z& q. qn
0 D" y" D l: K2 W# |5 P
" N8 V# K% A# p" d& v )
& L. d' M G9 _' E# E8 [5 | ^5 i0 M/ v, Y7 }$ `' F
贝叶斯公式0 i0 H& S# b3 D+ o
^. C, O3 S+ g$ E
( A ∣ B ) = P(A|B)=P(A∣B)=P ( A ) × P ( B ∣ A ) P ( B ) \frac{P(A)×P(B|A)}{P(B)}
: B* j$ a, s6 p5 `) [& cP(B)3 S" o" \* ]# ^ E% R: q. }0 I
P(A)×P(B∣A)
' o1 c7 h9 Y' Q0 b S( Y# n) Q1 S7 t/ w) P/ I% G. [' m
0 \+ R! G$ N& p
7 w9 J w( ~0 V6 Y: |$ C6 J7 a 或6 _" R$ Q% v) X+ u1 u
- V' I$ Z! @9 U- ~, I9 o ( A n ∣ B ) = P(A_n|B)=P(A
- J4 ~ c4 M' T: y, Yn+ M$ H3 f% q, F; h6 v/ M
( R5 S3 n8 F' X# O ∣B)=P ( A n ) × P ( B ∣ A n ) P ( B ) \frac{P(A_n)×P(B|A_n)}{P(B)}
0 _% ^! V6 U2 |P(B)
4 T) w3 g1 m' S( ~, @$ I9 AP(A
/ d1 n3 J( t3 E; L! Dn
8 J$ e% s1 E8 `& i9 B2 l' C7 q0 t/ p# `2 J( O) G) I& H4 {* ]
)×P(B∣A . p$ x2 q7 o. W
n, }% j! y6 {+ j( \9 F! e- k
7 b2 o4 ?' J+ c0 _" { )+ n ?3 r' b! d
) Q1 H! {2 _- a: J6 x) o7 t, ~
3 D; w& C S# F- g i
4 t1 H. m4 i2 M- c" Z
通俗地讲,假设需要将对某样本分为为0和1二类,其有A,B,C三个特征且值分别为a、b、c,6 f3 M6 g# u/ K
则只需要求出,在类别为0前提下特证A、B、C分别为a、b、c的概率:
/ U4 o0 W7 C$ Z/ k* [5 h$ e! D& g
9 r% ~; j2 u. l* M+ y9 a 即P ( A = a , B = b , C = c ∣ 类别为 0 ) P(A=a,B=b,C=c|类别为0)P(A=a,B=b,C=c∣类别为0)
9 u W7 S4 k& c8 y8 N6 E. T( S& g( n+ X
. o% ^% w2 I3 W和在类别为1的前提下特征A、B、C分别为a、b、c的概率:
5 l" Z6 L- u4 T1 U& s
# t5 B: \: r% ?5 j9 o; C9 K 即P ( A = a , B = b , C = c ∣ 类别为 1 ) P(A=a,B=b,C=c|类别为1)P(A=a,B=b,C=c∣类别为1)% C+ R! J# S' h+ F O
8 Q. _& s+ g; Q6 }9 j/ |4 n, b
即可。+ R; O" w1 R' R9 {# P1 b
然后将这两个概率作比较,大者,则为朴素贝叶斯决策结果所属类别。
# M, G% x6 _( A3 s5 l% T# ~2 R或者也可以求出在特征为目标特征的前提下,类别为某类别的概率,这样比较出的结果也是会是一致的。
9 y9 N4 r# i: L0 t( p' l! u
# p( D! l g2 e2. sklearn提供的朴素贝叶斯算法. @7 j2 K2 Z& i! |4 n
在python的scikit-learn库中,一共提供了3个朴素贝叶斯的分类算法,分别是GaussianNB(),MultinomialNB()和BernoulliNB()。" S: h K" b) I$ o. P, X
. K$ p- {# f$ [
其中,
& n4 h6 T5 x/ w3 W" C/ H5 F# PBernoulliNB() 则表示先验为 伯努利分布 的朴素贝叶斯;# e" ]( y! w0 _, R# U+ z; e
MultinomialNB() 表示先验为 多项式分布 的朴素贝叶斯;" c u" \7 ]7 j5 F5 P
GaussianNB() 表示先验为 高斯分布(即正态分布)的朴素贝叶斯。
3 m2 p* D$ J1 f2 x: z, W+ v; Q
- c" i* E: L3 g# E* p伯努利朴素贝叶斯
! N9 y* X) j1 ^) {. [& A1 l+ w其中伯努利分布的较为简单,因为伯努利分布的样本的特征值是离散型的分布,且特征都只有两个取值(比如0或1,是或否)。; F1 Z& k7 f9 d% X8 S, i% E' {3 m
多个特征,则对应多个相互独立的伯努利实验,每个实验只进行一次。比如,特征甲,可以是抛一枚硬币,结果可以是正面和反面。特征乙可以是昨天是否下雨,结果可以是“是”或“否”。; |* |! A5 q( U
如果特征值是连续的,则算法中可以设定一个阈值(参数名为binarize),对特征值进行二值化处理,后即可满足伯努利分布。$ ?( O( j4 R% ~
: s; s/ e9 J; C7 C) a8 u9 I多项式朴素贝叶斯 n, N2 d" K7 L' h" T4 W
多项式分布则是在伯努利分布的基础上进行了多次实验。多项式分布下的多个特征依然分别对应着相互独立的实验,但与伯努利不同的是,每个特征的实验进行了多次。比如,特征甲可以是抛10次硬币正面的次数,特征乙可以是过去七天中下雨的天数(假设每天下雨的概率都一样)。
; Z( R s0 K4 R2 z9 L% s6 }0 g6 N. R. t% {! F% e
高斯朴素贝叶斯 T, Q8 p, ]2 S+ X- R
伯努利朴素贝叶斯算法和多项式朴素贝叶斯算法都是对于离散特征的,高斯朴素贝叶斯则常用于连续特征的情况下。高斯朴素贝叶斯假设特征满足高斯分布(正态分布)。如特征为“某地高中生的身高”时,就使用高斯朴素贝叶斯。; f8 g) D# W0 V( p) E' w7 B; g; R
* N c( G( G8 R7 P
3. 伯努利朴素贝叶斯 BernoulliNB()
( O: W4 L2 Y/ f3 m) g导包,并准备一组数据,代码如下图所示:
7 A( C1 x8 J0 m* X: x6 g3 v& {7 I$ z g: t* Y q8 j. n
import numpy as np6 i3 o; `2 n5 @, F/ b
from sklearn.naive_bayes import BernoulliNB' A _, u' L* T$ Z$ n" [
from sklearn.datasets import make_blobs0 {: V- g. e# d. i) O& G
from sklearn.model_selection import train_test_split
$ _! g& U' e* k9 b8 w) D8 ~/ v
# 500个样本,3个特征,3个标签,范围为(-10.0,10.0)。4 D( W" e. C% X
X, y = make_blobs(n_samples=500, n_features=3, centers=3, center_box=(-10.0, 10.0),random_state=10); o* G L8 [' T- U3 P" g; e$ u! u! v
print(X)
- B8 r7 V$ p! p% Aprint("=================================================================")
+ k) V, d- ]% n" Z, ]% Uprint(y)+ G" {$ i% x1 ?9 Q- n
1( h) ^& G+ J3 A2 k+ \6 Y
2
( W) d4 ~. |9 d! i3& i- M! Z+ L, U2 ]1 V( H6 I
4) m4 @7 C: t! R! ~6 X# d
5
3 y0 x$ v8 |5 l; F6
0 L- f. ^& r& ]7" b* D( q6 D, ]6 s$ \$ L3 \ F( c8 }' r
80 g/ @4 M3 d9 Z3 f
9
% u; _% ~ i& T8 a4 H10. g( Y! C7 G5 @
数据输出如下:2 p1 a7 ^0 f9 T
; Y3 y4 ^8 r$ E* t$ |5 v
# F% ^5 V8 p& Z5 E( Y. h( G1 i数据如图所示,可以看到,特征数据X的取值为连续的,因此要想使用伯努利朴素贝叶斯,需要先对特征数据做二值化处理。做二值化处理需要在实例化BernoulliNB()的时候,选择binarize属性。该属性默认值为0。# b/ i, o# G. g/ a
官方文档解释:
6 ~" i1 n ~* @# S
$ M3 D9 ? V& k Z1 ?1 B# Z" K9 z, ~binarize : float or None, default=0.0
3 X3 U4 q, s1 h& ]/ C0 F( wThreshold for binarizing (mapping to booleans) of sample features.
7 u& k) Z) ^5 {) b# r: `If None, input is presumed to already consist of binary vectors.
# ^* m4 q5 t) S. a, o% |* |
0 m$ \ \& S% obinarize:浮点类型或None,默认值为0.0
+ f2 A/ p- k8 e1 N8 Y* l样本特征二值化(映射到布尔值)的阈值。
, y* j; Y$ i) ^# Q x如果为None,则假定输入的特征数据已经是二值化的向量了。
' G) Y+ v& s4 A, R1 v0 E5 K
- F3 g- E H8 m3 ?/ A' k7 Y+ D7 a) Z1 V训练模型,并使用测试集数据检验模型得分:
3 E! R7 o9 c% k6 U: \
! s7 R8 L1 j& a, f+ i+ {5 \, _X_train,X_test,y_train,y_test=train_test_split(X, y, random_state=10)+ V# E( H; ~* j- t, H7 D
nb = BernoulliNB()3 x$ |8 C0 `! Y3 o8 w7 O( P2 Q
nb.fit(X_train, y_train)6 d% d, ^4 G/ D3 \: X' e5 E/ L- x
print('模型得分:{:.3f}'.format(nb.score(X_test, y_test)))
x. B7 t; q7 K- b: `6 [1# f) t) g9 O$ t: B! P" @
2% n; T* ~' W% {% h
3
# q) ?$ f" `+ D6 R4 I1 T4
0 p) q. M7 X. a. u/ v于是模型得到了一个“离谱”的得分1.0(简直不能更好):
6 b6 A2 ]7 c" g3 N
" [$ @2 |- i* r- V6 g" t0 l+ v6 l1 q( w
输出预测结果:* F+ S: }% y+ X" i* s
- W# q, e* o4 X, k
pred = nb.predict(X_test)
2 t+ Y" p) E' eprint(pred)
6 B! [& o8 w6 H1 \' X18 X( _% I( M7 ^" A3 K) U
2/ ~4 z8 N- C5 L
# M: U: g) E4 `$ _7 r6 ~9 d, M! n* M! H7 ~
4. 多项式朴素贝叶斯 MultinomialNB()
/ A* V/ M) q2 aMultinomialNB()实现了服从多项分布数据的朴素贝叶斯算法。
& K5 ]2 Y6 [$ q% t/ y) A也是用于文本分类的两大经典朴素贝叶斯算法之一(文本分类领域中数据往往以词向量表示,尽管在实践中 tf-idf 向量在预测时表现良好)。
5 G5 I' ]$ z7 Z u H* A5 y! E+ d. [1 d& T7 R3 d; L
生成两组随机数,用于示例展示。一组特征值,一组标签。0 w: k* C+ b2 F v- E6 X: h
/ W* m: Y6 g! l5 U5 T1 y
import numpy as np& _) s o1 f' ~ { d% i/ ]& P H, ?
from sklearn.naive_bayes import MultinomialNB6 S- \3 W2 y9 m: d2 s
from sklearn.model_selection import train_test_split0 c& z) ]1 U4 ~
3 S/ G y% w4 g+ R( ~1 S, Z( m c
. f- ]8 z% Q% V" w# 设置随机数种子: s; b3 Q2 r1 D6 D! V; s& ^
np.random.seed(10)
# g& l3 G, h- a; y8 q9 G3 M' h# 1000个样本,5个特征,每个样本的取值是[0,9]的整数
* F4 Q/ q3 j' \X = np.random.randint(10, size=(1000, 5))
) D4 r ?0 j: j4 O% _% K# 标签可以有的取值为0,1,2
" U. { r! a/ \/ Y, ~9 iy = np.random.randint(3, size=[1000])4 X6 p! [2 i' S; [+ X7 ?( G6 h
print(X)
" H* g6 B P+ k! y+ L$ p+ u2 \print(y)
4 a" R! F3 ~( P, ^6 H0 s7 G- T1
0 k( U9 u9 B1 ]2% y6 ~! o) Y' k$ e% ^4 Y, ^
3; ]9 G8 t: r3 R1 P5 W
4
! {" g8 L( e {) @* v' B4 T- J" e55 P# D; Y/ N+ W
6
+ k& x2 z3 u0 X# |7 v& I1 k. v/ c! I2 A/ I" C$ r
8
Z+ v T t. M/ a+ o7 ^9" V: K) K W8 k
10
+ T4 p. N1 ?, D! R11* J% ~1 r& f! H7 \( X
12
+ G7 I6 O* A1 w3 _13% U9 c$ w3 s' T) T
部分数据展示如下:
0 |8 q) f$ z# ~& \$ Y5 X& E" T! G4 F3 y. y7 s: n; y
: {5 d1 n- I9 Z3 @7 w9 V
# 分割数据
2 A7 I1 U* w9 `' z1 K8 ~X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=10)
! K3 `& ^0 T, G, K0 a3 e4 V# 训练多项式朴素贝叶斯模型
/ d% g+ C8 U, Dnb = MultinomialNB()2 F1 M& B7 M. j
nb.fit(X_train, y_train)
7 S$ D0 s4 ^: b9 }8 X8 q0 [- w7 U9 Y/ }6 }" U) C6 Z
print('模型得分:{:.3f}'.format(nb.score(X_test, y_test)))
1 e( G6 z, A7 s5 E1 mpred = nb.predict(X_test)
& g- ` @; I, o& H: Q- m. Dprint(pred)3 o2 }/ s* f! M) C. K- P+ B
1
, p: V w6 ] j7 s4 H \! A2 i3 E! {0 a& B4 z- S5 d
3
, c0 [, W8 I I/ v4
& i7 P3 {* H H0 r4 _ r: x51 K$ U: b7 ?) D$ L
6- B8 Q1 d( d+ j, V' Z' B
7+ e# i; s) C- d `6 f0 P) J
8( I: H: F3 E( @/ r" i; ]3 o
92 t9 W# o' Q# [" |! M w+ B
模型得分及预测结果如下图所示:
' k' Q6 d3 c: ~4 T0 o% ~: S
" l; ?3 \( R: {/ k' E因为数据是随机生成的,所以这里的特征与标签之间无逻辑关系可言,以至于这里的模型得分偏低。但是算法是有效的。' ]& j5 `0 w# R/ G1 K: Z
1 k; g5 L: S0 \( C5. 高斯朴素贝叶斯 GaussianNB()8 ?, \' p4 a6 D U! p
符合高斯分布的数据也是连续的数值,所以不像伯努利分布的特征数据那样直接可以直接计算概率,但是也不是要做二值化处理。因为其符合正态分布,所以可以直接从正态分布中找到其概率值,5 b" Z, x0 S7 [8 c6 j. N. C
' V# ?9 a1 {. b# |% s: k7 h6 q6 r假设以某学校同学的身高数据为例,其中男生身高满足均值为176,标准差差为10的正态分布,则已知某同学为男生,其身高为180的概率为:7 S7 @; k0 z8 Y; N5 b% p
! M( Y! }0 s) ]2 y {, X: x/ v, Fprint(stats.norm.pdf(180, 174, 6))0 J: a) n$ F( U5 z* a
1$ ]! [& T& k; F8 k* [
0 ^( E) C5 D; d2 c* l0 t1 e
这个概率值虽然不大,但是如果与女生的数据相比,若女生的身高为180的概率小于0.0368,则由此可以判断出该同学为男生。
/ U& Z7 z+ c# v* s2 f9 j7 ?2 ^. e0 Q2 ~3 f9 a
根据这样原理,我们使用sklearn库做如下高斯贝叶斯代码示例:
! z$ J$ p& m; r- ~2 F( t2 V) d5 R
4 o/ W' ?0 H% n2 F9 }3 Himport numpy as np
" t# Q! H( [2 `$ |5 x5 o! K; L0 Mfrom sklearn.naive_bayes import GaussianNB
; {% p. O; P9 @9 T; g% mfrom sklearn.model_selection import train_test_split
* r+ q6 ~. ]# A( G/ |" _# _+ P, _2 `
# a+ Z b# d' x. Q3 Y# 设置随机数种子& o) \+ s% A! W5 X
np.random.seed(10)! n: d. j5 D; N; c8 p
# 特征值:均值为4,标准差为5的正态分布,10000个样本,3个特征 U4 t. ]8 D9 I) x
X = np.random.normal(4, 5, (10000, 3))
. r, Q! |8 ~ y) A6 i* v4 z3 d3 T {# 标签值:0,1,2
. c; X7 \& [. @# M# Gy = np.random.randint(3, size=[10000])
; I7 E3 m( n: m9 `- B
9 _; X8 k( c9 |2 Aprint(X)
( S$ n$ @) m: ^( ^" J+ B" D9 D7 J6 sprint(y)
- h5 S4 ^- B2 d/ ]7 `1
' X' M# J U+ Q4 k2% R; H& t+ k& `
3
* ~5 P* ?) i Y( ?4
3 w( n% |0 V% A: X8 F5$ x& P* B0 {: r& B
6# F s3 n# h ]
7% I- o; ~% T/ e6 k
8; v {0 ?" ?, ~' ^, `( ?: ]
9
& ~+ x+ `5 K" x8 @10, w. i. B8 U: ~; Z( R
11
& t5 }5 z) u: ]" Z( b9 ?' `12
9 |- D9 f/ _) F. L G134 o8 L2 D; {! T3 ]
14
# y1 S& z8 P5 K3 N生成数据如下图所示:2 A' P/ { b' }* F
4 ~/ B& R& S0 i) _
7 `' K4 f; l# L" b0 ~. @X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=10)
7 x. q. I m* Unb = GaussianNB()
7 b7 Q" N! J) h, z$ _# T6 pnb.fit(X_train, y_train)% J% J8 _. e5 o% X- A' a
0 t7 s1 c, q& e1 Q" x
print('模型得分:{:.3f}'.format(nb.score(X_test, y_test)))4 u1 w; a& p7 g3 f+ P d& v
" C: g, j! Y, ]8 D. rpred = nb.predict(X_test)7 L- R7 f' ~& y& C( K
print(pred)
0 D# e& M7 L4 u5 c* k+ d————————————————
% p! P/ T/ H3 Y% @; y) _; X9 @版权声明:本文为CSDN博主「侯小啾」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。9 i7 }/ G6 N' W0 f1 n5 \( c
原文链接:https://blog.csdn.net/weixin_48964486/article/details/1263375116 g% z# v/ t7 a2 ^5 A: f. s& b
- P% v; H% M0 F. a8 Z) `* G
{. P# _, O0 r, {
|
zan
|