QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 7412|回复: 0
打印 上一主题 下一主题

[国赛经验] 主题模型 LDA 入门(附 Python 代码)

[复制链接]
字体大小: 正常 放大

326

主题

32

听众

1万

积分

  • TA的每日心情
    慵懒
    2020-7-12 09:52
  • 签到天数: 116 天

    [LV.6]常住居民II

    管理员

    群组2018教师培训(呼和浩

    群组2017-05-04 量化投资实

    群组2017“草原杯”夏令营

    群组2018美赛冲刺培训

    群组2017 田老师国赛冲刺课

    跳转到指定楼层
    1#
    发表于 2020-5-23 14:37 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    一、主题模型: R+ R) \: s4 Z! A
    在文本挖掘领域,大量的数据都是非结构化的,很难从信息中直接获取相关和期望的信息,一种文本挖掘的方法:主题模型(Topic Model)能够识别在文档里的主题,并且挖掘语料里隐藏信息,并且在主题聚合、从非结构化文本中提取信息、特征选择等场景有广泛的用途。
    , L2 ~( w& j$ ]8 I$ z1 [7 r: D, X" m
    . v9 }8 X3 w( R
    主题可以被定义为“语料库中具有相同词境的词的集合模式”,比如说,主题模型可以
    % E7 n* l9 s9 P% v. \- r6 O8 A
    - V4 k1 I; K9 Q' H将“健康”,“医生”,“病人”,“医院” 集合成 “医疗保健” 主题3 D& k  W$ o5 n- q, a) C5 {0 f
    将 “农场”,“玉米”,“小麦” 集合成 “农业”主题" {* N) g1 M! {7 F! L6 z9 X6 P, ~
    ; S% S2 t+ C( V- ], L2 S* k

    , m, A+ u3 ~0 o二、狄利克雷分布(Latent Dirichlet Allocation,LDA)主题模型4 H. P( x, x2 Q' H& E4 W
    LDA 模式是生成式模型,在这里,假设需要建模的数据为 XX,标签信息为 YY。" o3 B! [6 a4 \, S
    4 M( P3 n( c  m  E
    判别式模型:对 YY 的产生过程进行描述,对特征信息本身不建模。判别式模型有利于构建分类器或者回归分析生成式模型需要对 XX 和 YY 同时建模,更适合做无监督学习分析。6 A2 y2 }( t) @$ n

    7 q* Y; |; }; v) y  ~- g" ~生成式模型:描述一个联合概率分布 P(X,Y)P(X,Y) 的分解过程,这个分解过程是虚拟的过程,真实的数据不是这么产生的,但是任何一个数据的产生过程可以在数学上等价为一个联合概率分布。3 d( w3 y2 G) {

    + \+ M, k2 U& FLDA 是一种矩阵分解技术,在向量空间中,任何语料(文档的集合)可以表示为文档(Document - Term,DT)矩阵。下面矩阵表达了一个语料库的组成:
    + c! v6 }  m/ w$ M# B5 W8 i+ X- B# @! u. z. m1 w+ Q
    1.png
    7 D4 z6 N1 K" G5 e' u其中,NN个文档 D1,D2,…,DnD1,D2,…,Dn的组成语料库,MM 个词 W1,W2,…,WmW1,W2,…,Wm 组成词汇表。矩阵中的值表示了词 WjWj 在文档 DiDi 中出现的频率,同时,LDA 将这个矩阵转换为两个低维度的矩阵,M1M1 和 M2M2。6 v( x2 Z5 ~. ]4 B0 m

    ' Q2 b4 x0 ?' I0 ?  h3 t$ [- D) X 2.png
    ! d" o( \3 L7 N2 a  a& m6 Y+ T& a" v5 g
    上面显示了 M1M1 矩阵的情况,它是一个 N∗KN∗K 大小的 document - topic 矩阵,NN 指文档的数量,KK 指主题的数量,M1M1 中,θiθi 是一个长度为 kk 的向量,用于描述当前文档 θiθi 在 kk 个主题上的分布情况,ZZ 表示具体的主题。  Y2 }' z# }0 ]* X2 ?' v
    3.png
    0 }3 b) V5 p8 `9 w) ^
    6 Q! j& N, t( v
    6 e0 k1 T) J: H0 e- ^0 H" R# M上面显示了 M2M2 矩阵的情况,它是一个 K∗VK∗V 维的 topic - term矩阵,KK 指主题的数量,VV 指词汇表的大小。M2M2 中每一行都是一个 ϕϕ 分布,也就是主题 ϕkϕk 在 mm 个词上的多项式分布情况,可以通过学习得到。
    : ~3 R# l) W, z# [
    0 A+ y& F4 G/ `/ W0 I# S' cLDA 文档生成流程) I: O- a' s- F: K
    LDA 假设文档是由多个主题的混合来产生的,每个文档的生成过程如下:' [# |2 [, Y$ c# |: |, h- i

    ! }# F" l) h1 g9 C从全局的泊松分布参数为 ββ 的分布中生成一个文档的长度 NN$ M6 ?( t+ o2 l) N4 F, f
    从全局的狄利克雷参数为 alphaalpha 的分布中生成一个当前文档的 θθ" N/ F  ]4 }+ l/ ~2 ~( c7 z- g
    对当前文档长度 NN 的每一个字都有4 c( w) r9 I3 O
    从 θθ 为参数的多项式分布生成一个主题的下标 znzn- W$ U" M3 {& X4 t6 ~5 b. L
    从 θθ 和 zz 共同为参数的多项式分布中,产生一个字 wnwn, Z+ N/ i( }9 |% z) x$ E# ]5 E
    这些主题基于词的概率分布来产生词,给定文档数据集,LDA 可以学习出,是哪些主题产生了这些文档。& k9 G) Y7 {1 X6 g4 L3 N
    1 c2 `; N# n* i7 B/ t1 `
    对于文档生成过程,则有,首先对于文档 nn 中的每一个字,都先从文档矩阵 M1M1 中的 θiθi 中产生一个下标,告诉我们现在要从主题矩阵 M2M2 中的哪一行 ϕmϕm生成当前的字。
    4 E0 j( q9 A4 y
    ! _1 s4 n. a& g9 u, y' L$ X$ g# i* s9 d. a" _" @
    训练过程(吉布斯采样)
    ' Y; u% k1 B; e7 Z吉布斯采样 (Gibbs Sampling) 首先选取概率向量的一个维度,给定其他维度的变量值当前维度的值,不断收敛来输出待估计的参数。具体地
    ; W5 u3 L- A) O- X0 d3 P, C: g
    0 k& b$ W8 @% M+ ]随机给每一篇文档的每一个词 ww,随机分配主题编号 zz1 N1 n7 w' ]" B% y+ v2 t8 A
    统计每个主题 zizi 下出现字 ww 的数量,以及每个文档 nn 中出现主题 zizi 中的词 ww的数量8 f1 R9 O5 s2 d# b) @6 t
    每次排除当前词 ww 的主题分布 zizi,根据其他所有词的主题分类,来估计当前词 ww 分配到各个主题 z1,z2,…,zkz1,z2,…,zk 的概率,即计算 p(zi|z−i,d,w)p(zi|z−i,d,w) (Gibbs updating rule))。得到当前词属于所有主题z1,z2,…,zkz1,z2,…,zk 的概率分布后,重新为词采样一个新的主题 z1z1。用同样的方法不断更新的下一个词的主题,直到每个文档下的主题分布θnθn 和每个主题下的词分布 ϕkϕk 收敛。
    ; Z" ~( l6 h  X* O, p' Q最后输出待估计参数,θnθn 和 ϕkϕk ,每个单词的主题 zn,kzn,k 也可以得到。
    . |$ J1 e" S- J$ i. ~3 I7 T. z0 `( Y# }" Q( F- l

    $ x) m2 W& s# }. F! `0 Q5 i7 W3 ]LDA 对于每个文档的每一个字都有一个主题下标。但从文档聚类的角度来说,LDA 没有一个文档统一的聚类标签,而是每个字都有一个聚类标签,这个就是主题。LDA 每个字都有可能属于不同的类别,每个文档都有可能属于不同的类别。在大量的迭代后,主题分布和字分布都比较稳定也比较好了,LDA 模型收敛。* ]) L1 {) N# K& m9 u
    ' Z# m' z: y: E, \

    # h0 C: M- n" r, s* G
    ! {/ A# f7 H2 p' x三、LDA 的参数& D" z- e) ?$ \/ }, O. b4 C$ S1 U
    αα :表示 document-topic 密度, αα 越高,文档包含的主题更多,反之包含的主题更少+ E+ c: X1 e( B$ k& I1 o  Y5 b
    1 T( o6 V9 ]6 y6 V9 z
    ββ :表示 topic-word 密度, ββ 越高,主题包含的单词更多,反之包含的单词更少
    ( W# e" |; h( c, V. X, s7 E6 _
    . f/ S. b* O# o* g: N主题数量:主题数量从语料中抽取得到,使用 Kullback Leibler Divergence Score 可以获取最好的主题数量。
    9 s% `- d" S3 a- a' ]' X  w7 ]5 p' t! S! h8 h4 O* i
    主题词数:组成一个主题所需要的词的数量。这些词的数量通常根据需求得到,如果说需求是抽取特征或者关键词,那么主题词数比较少,如果是抽取概念或者论点,那么主题词数比较多。
    ) V% {0 d; y# g" o/ W6 Q* E* y
    , U5 j- v, r9 E! ?% z% N, w$ ]迭代次数:使得 LDA 算法收敛的最大迭代次数. Z( P0 Z; N% _6 [* g' X

    9 `6 m' l  ~9 R; Z* j9 B! w$ N5 v5 |: b% j3 S3 c% G8 l! ^
    3 ~# U+ Y' b( a+ A: Q
    四、Running in Python" E+ G# E  J  a* ], B
    准备文档集合8 Y, c2 Z; R! K, Z- f
    doc1 = "Sugar is bad to consume. My sister likes to have sugar, but not my father."" W% C' s, P' n2 ?# _
    doc2 = "My father spends a lot of time driving my sister around to dance practice."
    5 t9 k7 N5 `' A4 m& z; F- W" kdoc3 = "Doctors suggest that driving may cause increased stress and blood pressure."
    + m# `/ e+ M% udoc4 = "Sometimes I feel pressure to perform well at school, but my father never seems to drive my sister to do better."! v, c( @; x; Q3 Y4 ~; ^5 p
    doc5 = "Health experts say that Sugar is not good for your lifestyle."3 ^( ^# x, h6 q/ K
    . N8 S) b2 Z7 A! M( r6 Y4 o5 ?
    # 整合文档数据
    2 d: M! \9 O! R/ r( ?% wdoc_complete = [doc1, doc2, doc3, doc4, doc5]. U9 m- M  s# M
    . x% ^9 `% y0 P- @
    数据清洗和预处理) a2 ]  I/ |$ G7 ?7 d+ o
    数据清洗对于任何文本挖掘任务来说都非常重要,在这个任务中,移除标点符号,停用词和标准化语料库(Lemmatizer,对于英文,将词归元)。
    8 ~9 y! t2 C( @7 z0 f, X! p3 I
    from nltk import stopwords1 x4 C& b4 o1 H5 r! `2 J/ j+ G/ d
    from nltk.stem.wordnet import WordNetLemmatizer
    8 f: ^# H* x' I% j& }  t! `& t  x, iimport string
    ) P5 ]0 k6 E; \
    # W6 `. D( J, Q) }stop = set(stopwords.words('english'))
    9 S- F" b  O. j+ hexclude = set(string.punctuation)
    " M9 e, n( H) b7 Q8 V. o4 n& {lemma = WordNetLemmatizer(): i' n& y8 f  K% V
    ' R: P; ^0 K5 y- w9 v
    def clean(doc):3 K; O$ F. G$ x& J( I- x9 m
        stop_free = " ".join([i for i in doc.lower().split() if i not in stop])% [$ |* [+ F( i( t5 d8 `! I
        punc_free = ''.join(ch for ch in stop_free if ch not in exclude)
    % g- I3 `! c6 I    normalized = " ".join(lemma.lemmatize(word) for word in punc_free.split())
    # J1 x" n! E% |* `    return normalized" b! K" o2 S0 x# E/ T; N4 e
    , N; m# ?/ E: M
    doc_clean = [clean(doc).split() for doc in doc_complete]4 E; y' t: q8 N' Q

    # U% o5 N# s; u% i准备 Document - Term 矩阵
    3 L, z- x) e% B1 i" q3 t) K语料是由所有的文档组成的,要运行数学模型,将语料转化为矩阵来表达是比较好的方式。LDA 模型在整个 DT 矩阵中寻找重复的词语模式。Python 提供了许多很好的库来进行文本挖掘任务,“genism” 是处理文本数据比较好的库。下面的代码掩饰如何转换语料为 Document - Term 矩阵:
    1 l* w2 l$ H+ S: W  H/ {* r- W5 A& Q! B0 Q0 O
    import genism
    / _; L! W/ x- U% wfrom gensim import corpora- g# R0 j: v/ i( [! ^6 Q$ S8 q. \

    * D5 D; x0 p  k; `( e# 创建语料的词语词典,每个单独的词语都会被赋予一个索引7 Q8 f, Q/ V) N
    dictionary = corpora.Dictionary(doc_clean)9 l/ i4 D1 H- Q8 T
    , n) s9 v; o/ W5 K  q0 M- n- P
    # 使用上面的词典,将转换文档列表(语料)变成 DT 矩阵- p, `" F* [! N7 U4 [* c
    doc_term_matrix = [dictionary.doc2bow(doc) for doc in doc_clean]& L4 @) a; V6 a$ Y1 J' _

    7 {6 H3 U( g) I8 N/ `2 m构建 LDA 模型0 T/ P- |( g. b* P
    创建一个 LDA 对象,使用 DT 矩阵进行训练。训练需要上面的一些超参数,gensim 模块允许 LDA 模型从训练语料中进行估计,并且从新的文档中获得对主题分布的推断。7 j5 A! c- {3 ~. w6 j$ ~
      q. t4 [& H5 P# ^0 g' p
    # 使用 gensim 来创建 LDA 模型对象
    " Z$ e4 W6 n2 ILda = genism.models.ldamodel.LdaModel- h6 c% \$ `- c, m% w2 M- e
    0 o! }$ O( `+ F* T$ H
    # 在 DT 矩阵上运行和训练 LDA 模型
      W. s# h7 O) |+ k2 ?' Hldamodel = Lda(doc_term_matrix, num_topics=3, id2word = dictionary, passes=50): C" Z* Q: o5 n4 b/ p5 G

    , Z. {. l: z- i结果5 _1 l. U& {, J, |; @( |& h- k
    # 输出结果
    " q# v  j. E+ n( rprint(ldamodel.print_topics(num_topics=3, num_words=3))# n% {- {7 {/ O# P; X/ L

    8 g: D5 _1 z) U0 d3 V) P[' y4 \9 ^! z  @  |( `) F9 ?* ?
        '0.168*health + 0.083*sugar + 0.072*bad,
    * f2 B: o+ c6 J; i7 P& Y* n/ M( K    '0.061*consume + 0.050*drive + 0.050*sister,
    ' d. h6 V" @( u; T    '0.049*pressur + 0.049*father + 0.049*sister7 \( \4 O  F/ m8 \0 X7 E
    ]* ?4 \  y4 u  T  ?9 ^/ I; B1 h$ n
    每一行包含了主题词和主题词的权重,Topic 1 可以看作为“不良健康习惯”,Topic 3 可以看作 “家庭”。; b7 ]+ r7 @& `0 h, Z

    2 |7 _; G" B8 u# H五、提高主题模型结果的一些方法: A3 b+ x9 S, ?7 b: i$ X
    主题模型的结果完全取决于特征在语料库中的表示,但是语料通常表示为比较稀疏的文档矩阵,因此减少矩阵的维度可以提升主题模型的结果。3 v( ]( [2 x) `% T6 d
    # [. G1 T( e( N
    1. 根据词频调整稀疏矩阵* j/ F4 U0 J6 c* T
    根据频率来分布词,高频词更可能出现在结果中,低频词实际上是语料库中的弱特征,对于词频进行分析,可以决定什么频率的值应该被视为阈值。# D8 w7 C# x, w
    0 b  G* D) m. z  i7 c  R8 A8 W
    2. 根据词性标注 (Part of Speech Tag) 调整稀疏矩阵; N+ l& M9 W: `4 P
    比起频率特征,词性特征更关注于上下文的信息。主题模型尝试去映射相近的词作为主题,但是每个词在上下文上有可能重要性不同,比如说介词 “IN” 包含 “within”,“upon”, “except”,基数词 “CD” 包含:许多(many),若干(several),个把(a,few)等等,情态助动词 “MD” 包含 “may”,“must” 等等,这些词可能只是语言的支撑词,对实际意义影响不大,因此可以通过词性来消除这些词的影响。- _$ K7 b. o8 H! X- [

    ' S" H/ Y. I* r3 I3. 调整 LDA 的 Batch 大小
    / J, ~5 W  E+ B; k& Z$ }为了得到主题中最重要的主题词,语料可以被分为固定大小的 batch,在这些 batch 上运行 LDA 模型会提供不同的结果,但是最佳的主题词会在这些 batch 上有交集。- f  o+ f3 s4 b$ H

    - v. O2 A; C& v主题模型用于特征选择7 u! [2 H2 I  G+ Y
    比如说文本分类任务中,LDA 可以用来选择特征,因为训练数据中含有类别信息,可以在不同类别的结果中,删除相同的、比较常见的主题词,为主题类别提供更好的特征。/ g. f5 I! B$ |) c6 t

    2 u) c" T' [! S$ |* |结语9 u% e8 I- L, R( d
    本文主要参考了[1],没有什么公式,用于对 LDA 有一个大概的了解,后面也会更深入 LDA 模型,可以一边运行上面的代码一边感受 LDA 的作用。6 r, x$ U$ |4 _2 x( ^3 [+ Z1 |

    * \: N" E) q  y7 H9 e, W参考文献
    / \/ u- \' [1 u! `5 D' ~3 L( z; k" m[1] https://www.analyticsvidhya.com/blog/2016/08/beginners-guide-to-topic-modeling-in-python6 l2 V. A8 A8 V4 D/ h, O
    0 [% T0 U$ r- r" ]0 t2 @( A
    [2] http://link.springer.com/chapter/10.1007%2F978-3-642-13657-3_43* H! n# @. M& v$ G& s4 E# i
    ————————————————: Q  Y* d* U; ]; {  {
    版权声明:本文为CSDN博主「情怀丶」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。5 Q3 ^! O/ L6 z0 O9 S& R& U
    原文链接:https://blog.csdn.net/selinda001/article/details/80446766
    - h2 l+ s! N" q, m4 s" x5 d2 \4 k: ?/ o# C! y

    $ b5 D' ^! C/ X" b$ U0 f0 w
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-16 01:00 , Processed in 0.528232 second(s), 54 queries .

    回顶部