LDA主题模型简介及Python实现 ' D- T6 J8 v) X! y8 }+ D( ^. g) S* F- z* g8 l! b
一、LDA主题模型简介 9 u7 ?( r ?( q4 E LDA主题模型主要用于推测文档的主题分布,可以将文档集中每篇文档的主题以概率分布的形式给出根据主题进行主题聚类或文本分类。" p! x! D5 w5 N) F4 b3 O1 U
1 @3 {3 I: I B. z! B* A5 K
LDA主题模型不关心文档中单词的顺序,通常使用词袋特征(bag-of-word feature)来代表文档。词袋模型介绍可以参考这篇文章:文本向量化表示——词袋模型 - 知乎( g9 B( g# R4 m4 G8 x
E8 T! ~8 F& n9 B7 F 了解LDA模型,我们需要先了解LDA的生成模型,LDA认为一篇文章是怎么形成的呢?; H4 N* E* d( b/ ]# h
- a. @; A N" V LDA模型认为主题可以由一个词汇分布来表示,而文章可以由主题分布来表示。6 l g3 E, Z0 }! b, C4 R) F1 R
$ Y9 m& B7 a! t5 [: Q2 H1 _
比如有两个主题,美食和美妆。LDA说两个主题可以由词汇分布表示,他们分别是:3 k! }& E$ L% J F2 w! s! [( J: L5 v
( C/ g; V- L. b1 c
{面包:0.4,火锅:0.5,眉笔:0.03,腮红:0.07}* [8 I H# b7 w
{眉笔:0.4,腮红:0.5,面包:0.03,火锅:0.07}; {/ S. I; @: b- i* g
7 b9 P) I9 r& g, r
同样,对于两篇文章,LDA认为文章可以由主题分布这么表示:5 n% \( {1 A! E) Q
3 T" r! \/ z9 q% ]《美妆日记》{美妆:0.8,美食:0.1,其他:0.1} $ `: e" `3 }: k( r7 v9 Q6 Q1 T+ v# k: e( L. Z j5 {
《美食探索》{美食:0.8,美妆:0.1,其他:0.1} + T; c0 ]: h* F p: E , H0 B! U7 g$ c& x 所以想要生成一篇文章,可以先以一定的概率选取上述某个主题,再以一定的概率选取那个主题下的某个单词,不断重复这两步就可以生成最终文章。 9 X; l, B: I$ S) ]+ T% X : ?# a( H) [( }0 h' H 在LDA模型中,一篇文档生成的方式如下:& v, T V2 N' @
' w' A" q) x$ F9 G! Y6 j* V. |$ c% X ( g6 h" U& D6 X4 `4 D1 B/ u S. x+ Y6 C7 u+ p( z9 B- H* H
其中,类似Beta分布是二项式分布的共轭先验概率分布,而狄利克雷分布(Dirichlet分布)是多项式分布的共轭先验概率分布。 * v5 B( K4 k0 q6 c1 J 2 ^( M& ^ R5 m+ N! A- S$ p/ x) B
2 F( u6 S( b6 B4 b
如果我们要生成一篇文档,它里面的每个词语出现的概率为: - a& O# R% g( L+ q* p- p 0 K7 V4 F! g: |+ r8 g9 O ; [. [: ]- v0 Z1 u# N 1 T. M! R! m7 B- e ^4 k 更详细的数学推导可以见:通俗理解LDA主题模型_结构之法 算法之道-CSDN博客_lda模型 / O. \$ |' X* H. _0 e # J& Z* h5 w$ W0 ?# E M: W 看到文章推断其隐藏的主题分布,就是建模的目的。换言之,人类根据文档生成模型写成了各类文章,然后丢给了计算机,相当于计算机看到的是一篇篇已经写好的文章。现在计算机需要根据一篇篇文章中看到的一系列词归纳出当篇文章的主题,进而得出各个主题各自不同的出现概率:主题分布。 5 ~7 y% }8 T. |$ W$ N9 [7 S+ I" o3 g7 |, F( s
至于LDA主题模型在计算机中具体是怎么实现的,我们也可以不必细究,现在有很多可以直接用来进行LDA主题分析的包,我们直接用就行。(没错,我就是调包侠) ) s7 g; C P E$ e p8 n5 Z" s. @: G9 A
二、Python实现: o* n0 ?. e; T+ q: @; w/ U1 b b
在用Python进行LDA主题模型分析之前,我先对文档进行了分词和去停用词处理(详情可以看我之前的文章:用python对单一微博文档进行分词——jieba分词(加保留词和停用词)_阿丢是丢心心的博客-CSDN博客_jieba 停用词). `: M: c$ n t a6 V0 i! H7 H
% ?3 e0 A( m- c# q 我下面的输入文件也是已经分好词的文件 . n/ O& Y0 R2 E+ n # j1 ~, z0 T8 g1.导入算法包 : c: _3 N2 F% O( p/ H$ }import gensim ( k% o% Z- B: l( \. r. a$ o+ Xfrom gensim import corpora7 X$ T1 r) r+ o% A6 C. u& `
import matplotlib.pyplot as plt/ R6 P- L9 R& Q" y- T. H+ u
import matplotlib, B& [% V8 h/ m. C! h! v5 H
import numpy as np" W5 {2 Q+ Q2 o5 H& A
import warnings& t; [0 e; w' p4 U& }
warnings.filterwarnings('ignore') # To ignore all warnings that arise here to enhance clarity9 u% J H5 x A# A
1 L. H3 ]: f0 T' b6 ?" lfrom gensim.models.coherencemodel import CoherenceModel r# E9 `: z: i0 \" B( jfrom gensim.models.ldamodel import LdaModel# L( l% y: R+ ?) I* l4 K7 [
2.加载数据& f+ W8 b" S2 U+ j
先将文档转化为一个二元列表,其中每个子列表代表一条微博: 2 L: d/ ~- {2 D6 X. q) s7 s0 Y( c& }& n$ E- ` \- ^6 @
PATH = "E:/data/output.csv" 3 Y3 C' O: M9 _9 c( |: J " m |& Q6 s ?file_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n') #一行行的读取内容: ]1 Y) j0 _5 ~
data_set=[] #建立存储分词的列表" m; T5 e9 t0 E7 i9 h1 F
for i in range(len(file_object2)):: f8 i6 n6 ?# p" v* u8 r3 h
result=[] 6 `9 b0 i. M, a0 ]3 E( W seg_list = file_object2.split()6 g! S7 r Z& P8 R( }, b1 l. I
for w in seg_list : #读取每一行分词 1 x; a6 \2 ~1 y' q) k( Z" i result.append(w) 6 K0 Y; J1 J8 N! \ data_set.append(result) % c. q* _$ j+ I! F h7 _! M. L {print(data_set) 4 f( z+ o7 f& g3 ^! i: x, y) ] 构建词典,语料向量化表示:5 a6 |1 {# h5 p; R2 m) |7 q# o
! y/ ]2 W* y Z; K6 c* E4 [dictionary = corpora.Dictionary(data_set) # 构建词典8 y Z# ?! p7 _: g+ B3 u
corpus = [dictionary.doc2bow(text) for text in data_set] #表示为第几个单词出现了几次5 S* }) p8 e9 a8 g2 m
3.构建LDA模型; F5 k& k+ A6 x. B: Y& I' {6 v
ldamodel = LdaModel(corpus, num_topics=10, id2word = dictionary, passes=30,random_state = 1) #分为10个主题 4 M/ x7 X M ^/ }% F+ g; Q7 @print(ldamodel.print_topics(num_topics=num_topics, num_words=15)) #每个主题输出15个单词 _" s. h- z( X2 W9 F/ p 这是确定主题数时LDA模型的构建方法,一般我们可以用指标来评估模型好坏,也可以用这些指标来确定最优主题数。一般用来评价LDA主题模型的指标有困惑度(perplexity)和主题一致性(coherence),困惑度越低或者一致性越高说明模型越好。一些研究表明perplexity并不是一个好的指标,所以一般我用coherence来评价模型并选择最优主题,但下面代码两种方法我都用了。' O+ o$ a5 w0 }) d3 D/ B1 H0 S- c
# B1 D6 [( C9 u: M' y7 {7 y, G
#计算困惑度2 X- w) y/ Y' z' D$ h
def perplexity(num_topics):( {# i7 L- p* c
ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30)& W) U8 i6 x5 S1 h* G, a
print(ldamodel.print_topics(num_topics=num_topics, num_words=15))' S9 o5 i8 p+ L# b
print(ldamodel.log_perplexity(corpus)) 7 v1 U# f- a" F, `- e$ S return ldamodel.log_perplexity(corpus) + Z8 q- L$ _; y, A/ |' O2 Z#计算coherence; }' Z7 F5 K B2 D% v) ]- @
def coherence(num_topics):- t; `5 s! F# @7 x, Y. l5 m
ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30,random_state = 1) 9 Z; g( Z2 q0 z print(ldamodel.print_topics(num_topics=num_topics, num_words=10)) " P. {; x/ ^ V* B# E ldacm = CoherenceModel(model=ldamodel, texts=data_set, dictionary=dictionary, coherence='c_v') 4 p# Q% C$ e0 W print(ldacm.get_coherence()) 8 k4 ]2 O2 [1 Q6 b1 K! j- r return ldacm.get_coherence()5 i% ?: z7 A7 p) k' n
4.绘制主题-coherence曲线,选择最佳主题数 / h6 K( M. y; I# i; R, ix = range(1,15)* p( S: o% M6 f7 K) K
# z = [perplexity(i) for i in x] #如果想用困惑度就选这个 0 _: E [! _$ q/ _8 vy = [coherence(i) for i in x]9 Z; N9 h3 h/ d: ]& [
plt.plot(x, y) # y# o- q" W1 g$ w8 wplt.xlabel('主题数目') b% I# \) g# q* c7 }plt.ylabel('coherence大小') 9 H, C4 n% a8 z% e3 r, Nplt.rcParams['font.sans-serif']=['SimHei'] 7 u2 k1 B$ Q2 ]% ?# {) }; Lmatplotlib.rcParams['axes.unicode_minus']=False ' f% y# d/ _ Iplt.title('主题-coherence变化情况'). }# p& I5 K8 F1 L7 u; t$ O- n
plt.show()0 @3 Y# w3 R6 {* D
最终能得到各主题的词语分布和这样的图形:0 K; Y8 \4 g4 R. i- T8 D
- q2 F6 t2 {7 \0 h" a. b3 a& |' c4 k
2 k$ M& f {' n! @ 5.结果输出与可视化3 P. `9 J* S8 S5 ]- R
通过上述主题评估,我们发现可以选择5作为主题个数,接下来我们可以再跑一次模型,设定主题数为5,并输出每个文档最有可能对应的主题 . e, S% ?7 N2 x8 ?! l6 s3 A2 C* y! G9 _' j0 c/ i7 ~' }/ T( U
from gensim.models import LdaModel8 ]: L P8 w9 t7 ~$ @! N0 ~/ Y
import pandas as pd , F. N6 J# J, Wfrom gensim.corpora import Dictionary : E0 E& z+ g. Hfrom gensim import corpora, models 2 O2 v) |% u$ I. m3 gimport csv, v# f- [' q% S4 E
9 e. _- b* U/ f# 准备数据 ) Y$ j! f+ O d0 wPATH = "E:/data/output1.csv"1 e' g2 C8 V& M6 }5 l% C
9 I0 P- U+ m3 N. u
file_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n') #一行行的读取内容. H Z! S0 w) b7 R
data_set=[] #建立存储分词的列表 ) c% x% D; O8 S& jfor i in range(len(file_object2)):+ y# {, c7 s; m7 }) J
result=[] * v2 K, c& R# j5 }7 w: U seg_list = file_object2.split() # Z/ Y* ]) e' s, e1 h9 u- ?1 _8 v for w in seg_list :#读取每一行分词- ^: Z) b1 X0 r: l$ c! G
result.append(w)5 W& M/ r. z; I7 H* j
data_set.append(result)9 n: V/ [$ J1 \! D! F
: |7 ]3 Z' Q: m6 d) i
dictionary = corpora.Dictionary(data_set) # 构建词典3 n2 i z* F0 S2 y" l+ u) ~$ u6 n
corpus = [dictionary.doc2bow(text) for text in data_set] ) ^4 i6 J8 P6 }" ?$ o A3 i0 M% m% P: |% c1 @. `$ { F
lda = LdaModel(corpus=corpus, id2word=dictionary, num_topics=5, passes = 30,random_state=1) ! m5 f$ K0 ]& Q5 m& T ~topic_list=lda.print_topics()! Y6 M" C( \9 {7 I; P
print(topic_list) $ n; v& O, f: |& M4 [" N: R5 `' S6 `" R
for i in lda.get_document_topics(corpus)[:]:( l. r+ {9 U6 x
listj=[] 9 t2 R# h) t. a) o! J" G% g for j in i: / H! l7 q7 t, [$ d. _7 i; Y0 z listj.append(j[1])3 P) W: n2 T1 c6 h
bz=listj.index(max(listj)) + @. I+ L% @& L/ z; n print(i[bz][0])5 z0 |8 K- H' M# `( c! B3 k4 o" h
( {! ]8 b a& u; L$ @
同时我们可以用pyLDAvis对LDA模型结果进行可视化:) K/ z" B6 r7 \0 Z
' y# P c$ s6 s. T4 w! O+ ]import pyLDAvis.gensim $ C4 w* D5 P, ]: ~, v5 upyLDAvis.enable_notebook()4 Z1 P$ l1 P1 l/ _; I
data = pyLDAvis.gensim.prepare(lda, corpus, dictionary)( D9 w# _* Z: u, L) l
pyLDAvis.save_html(data, 'E:/data/3topic.html') 1 x/ t1 e/ d9 q8 ]2 Z: C 大概能得到这样的结果: 9 ?, [% A' {# A. I: `' W7 n) a+ F
; t4 Z8 o0 t4 L& c ; r- d$ s. @+ I9 ^/ g) C. |, n! Q 左侧圆圈表示主题,右侧表示各个词语对主题的贡献度。 - S3 b/ F" Y0 B) V 2 s- h7 X. V; ` d" g8 N所有代码如下: 1 O8 x& g0 u3 H2 wimport gensim ' ~+ _( o' S( E! h' Z" e) _from gensim import corpora* |, J2 f" M( `5 _. ~. Z: W% c
import matplotlib.pyplot as plt9 _ a* g/ O v$ \* Y+ l, f# F) _
import matplotlib/ @3 S/ j/ j" Z
import numpy as np: Y1 z$ G' p3 ?6 h; N( R
import warnings 0 `6 F% L" F' }* W. E' \warnings.filterwarnings('ignore') # To ignore all warnings that arise here to enhance clarity9 C. W2 e/ g, V! ~. d