QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2584|回复: 0
打印 上一主题 下一主题

LDA主题模型简介及Python实现

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2022-9-7 15:38 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    LDA主题模型简介及Python实现
    " E- N* `9 H% }8 R
    ' o5 N( l" `2 V$ A7 z% ~* s一、LDA主题模型简介
    . y+ V$ r8 Y$ t" M: j$ s4 v4 ]        LDA主题模型主要用于推测文档的主题分布,可以将文档集中每篇文档的主题以概率分布的形式给出根据主题进行主题聚类或文本分类。
    ' N. B9 K+ _" }/ [+ C0 ?
    # \5 v2 @8 I0 y! ]3 d6 z        LDA主题模型不关心文档中单词的顺序,通常使用词袋特征(bag-of-word feature)来代表文档。词袋模型介绍可以参考这篇文章:文本向量化表示——词袋模型 - 知乎! y- X0 k5 S2 Y( g
    % Y4 r1 O' X: W1 T' @
            了解LDA模型,我们需要先了解LDA的生成模型,LDA认为一篇文章是怎么形成的呢?6 T5 b9 z& Y. h( A

    2 B  _9 W( g' H        LDA模型认为主题可以由一个词汇分布来表示,而文章可以由主题分布来表示。
    / M0 ~9 a! L+ f$ N; m, m6 B0 X8 s: P8 L9 W
            比如有两个主题,美食和美妆。LDA说两个主题可以由词汇分布表示,他们分别是:! H4 S9 w  y/ v" W+ d/ V/ J

    3 c5 W( K' e/ F; w; @{面包:0.4,火锅:0.5,眉笔:0.03,腮红:0.07}. E* Q7 R) `  v) R( n9 N
    {眉笔:0.4,腮红:0.5,面包:0.03,火锅:0.07}9 Y/ R% P* v) V" G

    : Q+ i  y3 k8 I) X6 l3 q        同样,对于两篇文章,LDA认为文章可以由主题分布这么表示:
    $ `+ m7 F% J* i7 M) }5 L% j  f8 e4 z' |% h8 I1 B
    《美妆日记》{美妆:0.8,美食:0.1,其他:0.1}
    + ~* N5 b; T( w! M$ {5 n
    % m1 e3 @0 t' N: O5 ?《美食探索》{美食:0.8,美妆:0.1,其他:0.1}. K) X+ I/ Z2 f( ]& L! g
    4 [- A' Q" S! Z4 q) @
            所以想要生成一篇文章,可以先以一定的概率选取上述某个主题,再以一定的概率选取那个主题下的某个单词,不断重复这两步就可以生成最终文章。, {8 q; H: w4 s2 i2 u$ C

    ) t4 i0 F8 Y* F) z8 |8 Q7 B! t        在LDA模型中,一篇文档生成的方式如下:
    % @2 h- h7 N) R  N# T7 X3 s) a; q

    / i) n) H9 g) u; E4 B. A& G) a0 i8 l' |/ K, X# x0 a" P0 T/ t
            其中,类似Beta分布是二项式分布的共轭先验概率分布,而狄利克雷分布(Dirichlet分布)是多项式分布的共轭先验概率分布。
    9 P8 D8 C$ D8 Z- r8 v" w6 x/ J
    5 i" f/ T! p) ]9 O. \1 Q4 y, U* s) y3 P. K

      ~. u! c6 y# }; L5 ]3 Q        如果我们要生成一篇文档,它里面的每个词语出现的概率为:- D% N' L& p: D8 J9 A" O+ A. I
    + Z. m' y4 n) R( l
    ; t7 j) f- S" a1 n. q$ ^

    6 ]; K% }5 h# C; p1 ^8 J& j         更详细的数学推导可以见:通俗理解LDA主题模型_结构之法 算法之道-CSDN博客_lda模型* P5 M. W2 d1 p# k2 G' N4 r

    ) M: h2 _$ H/ f        看到文章推断其隐藏的主题分布,就是建模的目的。换言之,人类根据文档生成模型写成了各类文章,然后丢给了计算机,相当于计算机看到的是一篇篇已经写好的文章。现在计算机需要根据一篇篇文章中看到的一系列词归纳出当篇文章的主题,进而得出各个主题各自不同的出现概率:主题分布。
    $ I0 Y) [0 ~& r0 Z3 j
    ' w) T8 t& z: w  C# }7 `4 y        至于LDA主题模型在计算机中具体是怎么实现的,我们也可以不必细究,现在有很多可以直接用来进行LDA主题分析的包,我们直接用就行。(没错,我就是调包侠). ^# I8 d5 M" U- G6 E8 Y
    # k, |8 o9 s& Z" U2 ^/ |1 [
    二、Python实现
    - e1 P9 A6 o, ^5 P        在用Python进行LDA主题模型分析之前,我先对文档进行了分词和去停用词处理(详情可以看我之前的文章:用python对单一微博文档进行分词——jieba分词(加保留词和停用词)_阿丢是丢心心的博客-CSDN博客_jieba 停用词)
    $ n  y! W" |( p4 O8 Y% O$ l
    % [4 S  r' F" [0 o) b        我下面的输入文件也是已经分好词的文件
    ( _* u0 }8 ~6 b6 x
    0 {* S$ M. _' ]) h& V4 n( _, }: G1.导入算法包$ D, h+ K& d8 I2 N( P9 V$ L
    import gensim6 r* _1 L" V0 J/ l( V
    from gensim import corpora. H  h9 g0 u! s1 a: C2 p
    import matplotlib.pyplot as plt& r* M, {, M) c& D
    import matplotlib+ m& X* d9 i1 d/ i( Y
    import numpy as np. ?3 Z# Q0 Y; }6 T0 [
    import warnings
    ' }1 F0 T( r1 w/ y2 Twarnings.filterwarnings('ignore')  # To ignore all warnings that arise here to enhance clarity
      f9 N& y/ G% ?8 t- m5 C
      d  w/ A9 C, y+ V7 C" O$ f0 q- Tfrom gensim.models.coherencemodel import CoherenceModel
    5 m9 f& ]2 g3 w/ V! P7 T2 ?" _from gensim.models.ldamodel import LdaModel$ T1 @2 q1 M: x/ M
    2.加载数据
    5 A3 z% A3 u& m7 U/ p* v* r2 }        先将文档转化为一个二元列表,其中每个子列表代表一条微博:0 z7 z/ H+ D7 {! q* j
    2 T$ v9 V5 ]2 l" G( U
    PATH = "E:/data/output.csv"+ {# R0 ~. a8 {: `6 a( N7 n5 p

    ; i& Z0 r6 X, afile_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n')  #一行行的读取内容2 @% V( P: o. Y7 V8 S0 P
    data_set=[]  #建立存储分词的列表7 {) H- C9 ~, Z% z+ m
    for i in range(len(file_object2)):, r( N" o; ?9 X. \5 v/ `
        result=[]6 K/ @3 [3 j& _; w$ I
        seg_list = file_object2.split()* `. K$ A  x3 q3 D' m
        for w in seg_list :  #读取每一行分词
    ! G' ]; c& I8 _1 h7 Z. ?        result.append(w)( L, F" B/ j/ @, R; i
        data_set.append(result)# [# O# M  ]4 V. ~
    print(data_set)
    * q$ u1 m3 v" _: `        构建词典,语料向量化表示:1 i8 N9 r3 u. L$ F7 C7 [% j2 S

    4 w' l( T, r' z" L& K' Ldictionary = corpora.Dictionary(data_set)  # 构建词典3 r: E" w" Z5 V9 t
    corpus = [dictionary.doc2bow(text) for text in data_set]  #表示为第几个单词出现了几次
    ; }7 ^  j# _# I3.构建LDA模型
    . y5 f; [3 p, ~) T% g4 Bldamodel = LdaModel(corpus, num_topics=10, id2word = dictionary, passes=30,random_state = 1)   #分为10个主题4 A  Y7 k- \8 G4 O5 @7 x) |
    print(ldamodel.print_topics(num_topics=num_topics, num_words=15))  #每个主题输出15个单词
    , h( \# c& \7 K* W" d4 a  O        这是确定主题数时LDA模型的构建方法,一般我们可以用指标来评估模型好坏,也可以用这些指标来确定最优主题数。一般用来评价LDA主题模型的指标有困惑度(perplexity)和主题一致性(coherence),困惑度越低或者一致性越高说明模型越好。一些研究表明perplexity并不是一个好的指标,所以一般我用coherence来评价模型并选择最优主题,但下面代码两种方法我都用了。
    4 G2 E9 ~5 m' H) }5 l# Q
    4 q" d! k7 Z' q2 U$ o8 Q5 b#计算困惑度9 T! \  e& Q2 V8 `/ E
    def perplexity(num_topics):) F3 Z* P, U( H
        ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30)
    ) J. A& X% }+ a    print(ldamodel.print_topics(num_topics=num_topics, num_words=15))
    2 B. R, F7 k: @' |    print(ldamodel.log_perplexity(corpus))
    6 W& T7 H2 Q3 d8 X9 e    return ldamodel.log_perplexity(corpus); r2 y- Q; b: a, I! k5 F
    #计算coherence+ V' }$ F5 d  c2 r
    def coherence(num_topics):
    / v+ K' _' E" b2 H! H9 H) h! \- b    ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30,random_state = 1)
    * R, _$ B% W, ~1 u    print(ldamodel.print_topics(num_topics=num_topics, num_words=10))
    2 C, j6 W0 C" h3 Q    ldacm = CoherenceModel(model=ldamodel, texts=data_set, dictionary=dictionary, coherence='c_v')) t* w3 I3 G- z7 l$ z
        print(ldacm.get_coherence())4 }0 v+ x5 x/ p
        return ldacm.get_coherence()6 I9 o. @% X  y+ b4 J% r  H/ x
    4.绘制主题-coherence曲线,选择最佳主题数( E  @7 B/ b( P8 t" x0 Q! l
    x = range(1,15)
    3 d9 k5 r+ Q/ W- j2 `% D# z = [perplexity(i) for i in x]  #如果想用困惑度就选这个
    , c, _- g. t' V, xy = [coherence(i) for i in x]
    ( v4 n0 n4 f5 e$ D: E2 ?* Y- ^' fplt.plot(x, y)
    9 E; g% T. t3 Eplt.xlabel('主题数目')" w/ |5 S% S; t$ V9 _( c% M$ K/ F' X6 w
    plt.ylabel('coherence大小')
    7 C) W. ~8 n' {0 o; m- J: jplt.rcParams['font.sans-serif']=['SimHei']
    ' q2 W' K! Q$ v# p: Mmatplotlib.rcParams['axes.unicode_minus']=False
    ; K" v* N/ A/ O5 T$ V' pplt.title('主题-coherence变化情况')6 c7 w1 M& r9 }1 i
    plt.show(): V2 `" x# L3 ?. z5 ^, N3 L# ~
            最终能得到各主题的词语分布和这样的图形:& W9 L/ y- g# X0 h, `# G( C" q# E

    ! }4 q# S6 C, x$ V, G8 ]/ l
    & `& u' P5 P2 U5 X
    % l2 }4 p1 R" l$ G 5.结果输出与可视化
    * T# F) C9 @: y/ U$ t; \& {: W        通过上述主题评估,我们发现可以选择5作为主题个数,接下来我们可以再跑一次模型,设定主题数为5,并输出每个文档最有可能对应的主题
    + c% F1 Y1 d; L1 o& H8 J! L: y4 X
    . N" i( s: Z% V5 q  j' t2 R3 @from gensim.models import LdaModel
    7 f$ q: C, H* b0 h  R2 P( Limport pandas as pd/ ]! [& _4 y) J. G$ I  z( }
    from gensim.corpora import Dictionary
    4 p5 p; e# f, S3 Tfrom gensim import corpora, models) k/ N- V$ a, K
    import csv
    7 W# @; }- o- a2 Q1 y0 ^5 B
    7 p$ B5 ]8 v/ ~5 I7 u" N, G# }# 准备数据
    " C0 i$ _) m7 {PATH = "E:/data/output1.csv"
    4 v* D- b. {& R& Q; \: I! s& G  J5 l; [+ }& U$ o7 |
    file_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n')  #一行行的读取内容
    ) u3 o, t/ ], F% Y! G3 S( Wdata_set=[] #建立存储分词的列表0 u. }1 l$ Z( H% M+ X+ m
    for i in range(len(file_object2)):+ ~+ ]- _3 N, F' v& P3 b/ @2 u; J: G3 H
        result=[]
    $ V# ~) H" {5 w0 e$ d# m    seg_list = file_object2.split()
    8 u  I' U5 B$ x    for w in seg_list :#读取每一行分词/ C1 q2 G! O1 [8 C
            result.append(w)! `: p: R3 u6 V; j# v7 ]  m% Z# n
        data_set.append(result)* t/ ^- F7 g) j4 ~8 N: q

    . z: `7 D2 ], C( T# I) Ldictionary = corpora.Dictionary(data_set)  # 构建词典8 T9 z% s# L& a0 ^: ?) E
    corpus = [dictionary.doc2bow(text) for text in data_set]
    - Q  o. r3 Q( S7 U2 N. C+ s7 i( ]1 F. @+ l$ ~
    lda = LdaModel(corpus=corpus, id2word=dictionary, num_topics=5, passes = 30,random_state=1): Y1 I* @2 z. a& N/ a
    topic_list=lda.print_topics()
    : w& k  f5 Z2 F' oprint(topic_list)
    8 ~4 U" s5 k( k. k
    & C3 D' w- h  y7 T' ?for i in lda.get_document_topics(corpus)[:]:
    : t4 _4 q8 i7 x- h5 _$ N4 {    listj=[]
    + c! [! @: p! u$ p6 N    for j in i:
    / O' U: T$ K' D& l% @" t8 N        listj.append(j[1]), l3 {' ~% S; G$ o! `
        bz=listj.index(max(listj))
    / u" y' R$ K) N! _& b! E    print(i[bz][0])
    ; d3 D, E4 r) W- g9 i! `: ?- |
    ) q2 {. y) o+ U' y0 ~5 ?        同时我们可以用pyLDAvis对LDA模型结果进行可视化:
    . o6 G% S8 V5 [$ ]; l# Y1 {
    , x, o* x% B  E' Yimport pyLDAvis.gensim
      l! m) t6 M4 T5 p  `8 @; v7 ~. opyLDAvis.enable_notebook()* l: U) B& C$ T5 [
    data = pyLDAvis.gensim.prepare(lda, corpus, dictionary)( K4 w3 _# p. F- G  S! \5 N( I1 s
    pyLDAvis.save_html(data, 'E:/data/3topic.html')& h( d- X! a+ u' X8 N
            大概能得到这样的结果:0 c: ~3 W8 m5 P9 a
    9 e( e9 `) N0 G) F

    $ X1 \, b3 F1 a- b9 d* r- g# ^+ m8 w6 N- l  C8 J
    左侧圆圈表示主题,右侧表示各个词语对主题的贡献度。7 Z  O1 I$ b0 T; {

    - K0 _2 I  u# ]; Y( I所有代码如下:
    8 J4 D. o3 B% X. {import gensim
    $ q, D0 J8 J0 g2 V; i$ c" `from gensim import corpora
    8 j5 \* }8 N2 himport matplotlib.pyplot as plt5 A" E) X/ t$ j3 W  E; N& b
    import matplotlib/ X0 o5 s$ D* k6 L+ f1 U$ t8 x
    import numpy as np
    7 O: w9 K4 N* Y' s. F% u3 ximport warnings5 h7 X; C2 i0 S8 o
    warnings.filterwarnings('ignore')  # To ignore all warnings that arise here to enhance clarity/ V2 }+ w' u: j4 a' o& P* H
    ) B2 b# f) l& Z) v# C# v# E
    from gensim.models.coherencemodel import CoherenceModel9 c4 h" B" g+ }7 I5 k( H1 n
    from gensim.models.ldamodel import LdaModel
    0 q$ c: ?, b" c/ f9 ]7 s5 }6 d2 q6 y

    8 @4 D/ O* t: l5 W- L2 I& _+ L4 _& T1 q6 U7 V4 x
    # 准备数据, y$ f2 o6 k8 S
    PATH = "E:/data/output.csv"1 j0 F; A7 V, g5 r% z

    2 G2 A% @/ h* Q& y. N% vfile_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n')  #一行行的读取内容, `5 P  L( G8 O) @
    data_set=[] #建立存储分词的列表
    ; v. k/ |; q/ N3 T5 B( q) N8 Q/ l  vfor i in range(len(file_object2)):
    5 a7 @* y  p  `4 Q% m% Q    result=[]5 j# p# h! ^% o. R  V" A
        seg_list = file_object2.split()
    3 E2 s  U* t3 l5 @, s3 G' p0 A    for w in seg_list :#读取每一行分词5 R* J9 o5 `/ I# m* u/ u- Z
            result.append(w)3 z4 _2 G  B7 K% C
        data_set.append(result): A  f0 d% ^, X! S% \+ m$ J
    print(data_set)& ^" D; N, [& W  L9 J  v- O
    9 \# c; l2 m6 }! D1 [! I3 l/ f
    4 N7 X9 O' s4 D4 H9 X* R
    dictionary = corpora.Dictionary(data_set)  # 构建 document-term matrix
    2 m1 h8 k; j) j4 w4 Xcorpus = [dictionary.doc2bow(text) for text in data_set]
    3 e4 l3 P) H, @& r. c1 J$ }- g1 w#Lda = gensim.models.ldamodel.LdaModel  # 创建LDA对象
    ! J' {4 O! Y% u' `& Q! n  Z1 X. t- T3 a0 i  t
    #计算困惑度
    4 W. u9 f/ v2 B+ b9 g2 Y  @2 Fdef perplexity(num_topics):
    * ?+ j0 j: `: E8 N3 U4 S/ O    ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30)
    8 H. n; T. v- i# E. z, _0 t    print(ldamodel.print_topics(num_topics=num_topics, num_words=15))
    1 c' B) K; N+ m6 }    print(ldamodel.log_perplexity(corpus))
    6 I1 P0 L7 g; S. V9 `4 g- O2 L  T: N    return ldamodel.log_perplexity(corpus)
    . T. d3 h1 Y3 {% i4 f2 Z$ h
    , s/ N+ j7 P* t5 {# ]# R3 t  I#计算coherence
    1 }: ^* \0 u* hdef coherence(num_topics):
    3 k: e/ @" ]8 i+ ]  \    ldamodel = LdaModel(corpus, num_topics=num_topics, id2word = dictionary, passes=30,random_state = 1)
    8 v  B' i3 f% K. n. a1 s+ c2 S- Q  e    print(ldamodel.print_topics(num_topics=num_topics, num_words=10))
    ( A  b# @" Q* L8 d9 r+ x8 [    ldacm = CoherenceModel(model=ldamodel, texts=data_set, dictionary=dictionary, coherence='c_v')
    , o7 T' g  S8 k; w7 M    print(ldacm.get_coherence()), t& b  w; X& x
        return ldacm.get_coherence()- k; L' T. b3 t; y
      B1 q) B6 D% ]$ q# G
    # 绘制困惑度折线图
    1 {! j2 L8 r4 M, W1 g0 ox = range(1,15)
    + d) H: K- q! F8 N) O  O5 x$ B- T# z = [perplexity(i) for i in x]1 M3 E) a  @; P) A9 s) P! E
    y = [coherence(i) for i in x]
    : W; L! B3 D0 R$ O( _. pplt.plot(x, y). k% p, [; d) t8 O3 d& J/ B, c
    plt.xlabel('主题数目'), @' B8 s$ q; f% ]9 X& s7 H
    plt.ylabel('coherence大小')
      r' l: N& m" o& kplt.rcParams['font.sans-serif']=['SimHei']7 e' Y( M8 I. o( q% @
    matplotlib.rcParams['axes.unicode_minus']=False
    1 Z3 j5 {9 N6 @/ d. ~- u. @7 F! lplt.title('主题-coherence变化情况')
    ' I: X0 R! p  Bplt.show()
    ' l' O, B1 i7 l3 l( i2 o5 @  [. q  r& z( Z
    from gensim.models import LdaModel
    3 k, t2 Q3 T8 P6 w/ uimport pandas as pd  [8 ]) w* j2 T) r9 r
    from gensim.corpora import Dictionary" X7 f& m& y* x; B" P
    from gensim import corpora, models5 D; n; b4 r6 ]2 L3 C) o3 p
    import csv
    . t8 D  _* d5 }. [3 H+ X, V! o! `5 b$ ]
    # 准备数据
      c" h+ J; W" O8 Y  [PATH = "E:/data/output1.csv"
    ' r" D- h0 o2 Y9 ]- O% ]! J) v* U: @: h- C5 B! X
    file_object2=open(PATH,encoding = 'utf-8',errors = 'ignore').read().split('\n')  #一行行的读取内容
    - t: p/ U+ v; K# t, e5 C$ }# Gdata_set=[] #建立存储分词的列表
    + s% v8 ~4 @0 E  Efor i in range(len(file_object2)):' S6 U+ P  F& f' N, M" T
        result=[]
    ; D5 H# `! i1 R    seg_list = file_object2.split()) Y9 B5 b4 i9 V- z0 n8 T& R( {- W$ k
        for w in seg_list :#读取每一行分词' C9 w0 A; c% j
            result.append(w)# n1 d) E/ ?5 m, h' Q
        data_set.append(result)3 R- U; G( r3 j- R
    0 z$ e# J+ h. D6 ^: F
    dictionary = corpora.Dictionary(data_set)  # 构建 document-term matrix1 h+ c6 l7 E+ }! \1 u5 B" \
    corpus = [dictionary.doc2bow(text) for text in data_set]# V! f9 T2 J# O- {

    , r. T. m* @" wlda = LdaModel(corpus=corpus, id2word=dictionary, num_topics=5, passes = 30,random_state=1)0 j  g2 E3 t0 A2 E
    topic_list=lda.print_topics()
    + R# x7 f- F$ D3 n* ~3 dprint(topic_list)
      y- \9 D" {" J3 z
    $ H( K( z) f) N7 kresult_list =[]8 m+ s6 n2 W7 s1 p+ z+ P' v7 W0 s' g; U
    for i in lda.get_document_topics(corpus)[:]:
    & D9 Y8 P+ R! {' k    listj=[]
    - G1 t' ?! P" Q    for j in i:
    ( x6 n& F, M' H: v. F  f        listj.append(j[1])
    0 T$ h! m* q2 \0 p- r" U6 t    bz=listj.index(max(listj))' A" v# S0 l+ J4 D5 u. R
        result_list.append(i[bz][0])
    ; n# W! T: W! U) X( M; D4 [print(result_list)7 v( C1 z2 G" o. g

    - A% B- D3 r  \; rimport pyLDAvis.gensim
    # h/ c. R+ C( }' q/ FpyLDAvis.enable_notebook()
    3 K' s" t) @5 O% X5 _9 D* jdata = pyLDAvis.gensim.prepare(lda, corpus, dictionary)
    6 N, }. E4 Z3 ~) L8 p+ ^pyLDAvis.save_html(data, 'E:/data/topic.html'); q0 }( g3 G" H# q: E
    有需要自取~
    & z  n" s' G& C9 \+ C6 h————————————————% R7 o. Y$ a" G" g( h* D2 }
    版权声明:本文为CSDN博主「阿丢是丢心心」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    2 J! `+ w6 K, c: L, T原文链接:https://blog.csdn.net/weixin_41168304/article/details/122389948# Q( x, j# C1 [% M
    # J5 o. d& R$ ]6 K
    . {1 V2 {- q2 i$ {
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏1 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-10 18:41 , Processed in 1.644498 second(s), 51 queries .

    回顶部