数学建模社区-数学中国

标题: 爬虫(六十九)简明 jieba 中文分词教程(六十) [打印本页]

作者: 杨利霞    时间: 2020-5-31 10:40
标题: 爬虫(六十九)简明 jieba 中文分词教程(六十)
爬虫(六十九)简明 jieba 中文分词教程(六十)9 j5 W+ c3 f8 F1 N" L6 l1 _3 G
6 w* O5 ]/ X. c- M
0 引言

jieba 是目前最好的 Python 中文分词组件,它主要有以下 3 种特性:

1 分词
' X5 [# A* P" L% G$ M: P" H+ p可使用 jieba.cut 和 jieba.cut_for_search 方法进行分词,两者所返回的结构都是一个可迭代的 generator,可使用 for 循环来获得分词后得到的每一个词语(unicode),或者直接使用 jieba.lcut 以及 jieba.lcut_for_search 直接返回 list。其中:* f' O' q3 g; b' X& D0 e1 z

# 尽量不要使用 GBK 字符串,可能无法预料地错误解码成 UTF-8
2 z3 C; q" V( o8 W1.1 全模式和精确模式
& n0 P: S* Q9 J, r5 Z# ^; U- S. r1 R2 t0 W4 H6 ?

【全模式】:他/ 来到/ 上海/ 上海交通大学/ 交通/ 大学

【精确模式】:他/ 来到/ 上海交通大学

type(seg_list)

generator

【返回列表】:['他', '来到', '上海', '上海交通大学', '交通', '大学']

type(seg_list)

list

1.2 搜索引擎模式

【搜索引擎模式】:他/ 毕业/ 于/ 上海/ 交通/ 大学/ 上海交通大学/ 机电/ 系/ ,/ 后来/ 在/ 一机部/ 上海/ 电器/ 科学/ 研究/ 研究所/ 工作

【返回列表】:['他', '毕业', '于', '上海', '交通', '大学', '上海交通大学', '机电', '系', ',', '后来', '在', '一机部', '上海', '电器', '科学', '研究', '研究所', '工作']
; a# @8 |8 e! _0 _8 n0 h* ~- m- j% F, c+ x  C7 ~& c
1.3 HMM 模型
! t0 {: r6 w  d7 l# h' @: M3 VHMM 模型,即隐马尔可夫模型(Hidden Markov Model, HMM),是一种基于概率的统计分析模型,用来描述一个系统隐性状态的转移和隐性状态的表现概率。在 jieba 中,对于未登录到词库的词,使用了基于汉字成词能力的 HMM 模型和 Viterbi 算法,其大致原理是:. }5 k' Z' B: G8 D6 V; p, L
采用四个隐含状态,分别表示为单字成词,词组的开头,词组的中间,词组的结尾。通过标注好的分词训练集,可以得到 HMM 的各个参数,然后使用 Viterbi 算法来解释测试集,得到分词结果。( y5 v3 v1 W  d# ~7 C$ X
. i* r! G4 g4 ?' |8 I) u
# 代码实现可参考 HmmSeg.py1 \5 K$ E% t" j0 u( Z7 S6 s2 g9 H

5 z8 s" f/ ?) S3 h) O& E7 B* |6 W

【未启用 HMM】:他/ 来到/ 了/ 网易/ 杭/ 研/ 大厦

【识别新词】:他/ 来到/ 了/ 网易/ 杭研/ 大厦

2 繁体字分词

jieba 还支持对繁体字进行分词。

【全模式】:人生/ 易/ 老天/ 難/ 老/ / / 歲/ 歲/ 重/ 陽/ / / 今/ 又/ 重/ 陽/ / / 戰/ 地/ 黃/ 花/ 分外/ 香/ / / 壹年/ 壹/ 度/ 秋/ 風/ 勁/ / / 不似/ 春光/ / / 勝/ 似/ 春光/ / / 寥廓/ 江天/ 萬/ 裏/ 霜/ /6 [2 Y+ w. a4 u7 k7 _. w

【精确模式】:人生/ 易/ 老天/ 難老/ / 歲/ 歲/ 重陽/ / 今/ 又/ 重陽/ / 戰地/ 黃/ 花/ 分外/ 香/ / 壹年/ 壹度/ 秋風勁/ / 不/ 似/ 春光/ / 勝似/ 春光/ / 寥廓/ 江天/ 萬/ 裏/ 霜/
  q  [' Q' W1 h9 h
, |1 [+ C8 X$ C- z  \% s/ J8 @  f* [/ h

搜索引擎模式】:人生/ 易/ 老天/ 難老/ / 歲/ 歲/ 重陽/ / 今/ 又/ 重陽/ / 戰地/ 黃/ 花/ 分外/ 香/ / 壹年/ 壹度/ 秋風勁/ / 不/ 似/ 春光/ / 勝似/ 春光/ / 寥廓/ 江天/ 萬/ 裏/ 霜/) p- J2 x1 @- V; d# M

1 v5 f: \/ I4 V1 l/ q  }# e3 添加自定义词典
- W* B' x" I3 e7 ]2 ^3 y3 N开发者可以指定自定义词典,以便包含 jieba 词库里没有的词,词典格式如下:  F, u6 c; y  a, a8 s
词语 词频(可省略) 词性(可省略)
6 P6 M% s: F4 f1 s
5 W+ \$ i: m* Q( R例如:/ _! u, C* H/ c7 s4 v9 c

8 y* r! J: E; t8 r6 t! B/ x7 |3 T2 N/ T

# 虽然 jieba 有新词识别能力,但自行添加新词可以保证更高的正确率。
8 z- a0 E) g2 b0 l4 e1 J6 d. n; }3.1 载入词典
3 z# [2 W' C) ^使用 jieba.load_userdict(file_name) 即可载入词典。
; P# X& G, b8 l0 f# file_name 为文件类对象或自定义词典的路径
$ m8 }9 U1 _5 q- N5 a" A/ }
# m" E9 r7 V# E$ {7 p  z' r/ c9 Z2 J: a/ B

【未加载词典】:周大福/ 是/ 创新/ 办/ 主任/ 也/ 是/ 云/ 计算/ 方面/ 的/ 专家

【加载词典后】:周大福/ 是/ 创新办/ 主任/ 也/ 是/ 云计算/ 方面/ 的/ 专家/ D' O' \9 }, H3 J. Y# y9 ?* u

. _2 e  W( D, M" ?$ _! v3.2 调整词典- o# H6 c3 i7 G" p+ a) e3 I
使用 add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中动态修改词典。
+ S: }. g# w$ [3 j2 b
( T) k0 B2 j1 M4 v8 u& h/ M4 A& n4 h5 z4 S" x7 a4 }+ C

使用suggest_freq(segment, tune=True)可调节单个词语的词频,使其能(或不能)被分出来

【调节词频前】:如果/放到/post/中将/出错/。

494

【调节词频后】:如果/放到/post/中/将/出错/。
+ t1 o+ A) Z  a) a9 |6 H) t
8 j3 _  H5 H3 J: _; A7 M4 关键词提取8 x% d: _* W  R
jieba 提供了两种关键词提取方法,分别基于 TF-IDF 算法和 TextRank 算法。1 Y* j5 J3 [7 ]& c7 N
4.1 基于 TF-IDF 算法的关键词提取5 `$ j( B6 ~2 u5 D6 q6 |$ x/ X! V
TF-IDF(Term Frequency-Inverse Document Frequency, 词频-逆文件频率)是一种统计方法,用以评估一个词语对于一个文件集或一个语料库中的一份文件的重要程度,其原理可概括为:
, J/ s& E: c( w! ~3 u一个词语在一篇文章中出现次数越多,同时在所有文档中出现次数越少,越能够代表该文章  ]( r) c( l2 y& k$ z
# k$ O) A! x9 B9 W% J
计算公式:TF-IDF = TF * IDF,其中:% z- j, ]3 O- l. s7 _

通过 jieba.analyse.extract_tags 方法可以基于 TF-IDF 算法进行关键词提取,该方法共有 4 个参数:
0 J3 y% w! l$ G+ ^1 c/ c- G

欧亚 0.7300142700289363
: |. q* Z- V6 S: X9 D! ]吉林 0.6590381843736177 y/ C8 t* e9 f9 Y/ j
置业 0.4887134522112766- Y/ h" d2 g3 B9 p) N: M" q
万元 0.3392722481859574# b' x0 {& v5 W; f3 w4 p
增资 0.335824019852340455 A; p6 `1 Z7 s8 r+ s
4.3 0.25435675538085106" N8 I2 u$ I$ J- {6 |+ L" h
7000 0.254356755380851068 P* w# X8 g( Q& R* q# s/ O( l
2013 0.25435675538085106& j% }3 |0 E5 I. r" {. i
139.13 0.25435675538085106
& e' b5 ~1 i9 v' J  I实现 0.199009799003829784 \8 i3 J! n+ [( M2 _
综合体 0.19480309624702127: K8 x* H% V8 [2 f$ ]8 o
经营范围 0.19389757253595744* N( Y# B7 v6 G& ?3 Q
亿元 0.1914421623587234
6 p- w3 ]- Z/ A9 V- E7 F$ H在建 0.17541884768425534: x# |3 V1 ~& \
全资 0.17180164988510638, K5 D9 X( i& p1 i: H7 J7 R' g  T9 b
注册资本 0.1712441526
; e$ w% |+ r' Z6 W百货 0.167344600413829793 o# I1 u2 U' v' [" h
零售 0.1475057117057447& P5 G) W+ i7 ^& X; Q& ^4 B* s) W
子公司 0.145960452377872345 N0 D& K, h# T8 D5 U! M: H
营业 0.13920178509021275
* y! d( g2 {0 O$ [( C# M
5 J4 k2 A$ f5 h3 ]2 }使用 jieba.analyse.TFIDF(idf_path=None) 可以新建 TFIDF 实例,其中 idf_path 为 IDF 频率文件。" _4 u/ p( K) Q' q( y
4.2 基于 TextRank 算法的关键词提取
, E: a% w4 [( ^; Z; @9 ITextRank 是另一种关键词提取算法,基于大名鼎鼎的 PageRank,其原理可参见论文—— TextRank: Bringing Order into Texts 。, G2 a1 m' }' ]$ A+ p7 u
通过 jieba.analyse.textrank 方法可以使用基于 TextRank 算法的关键词提取,其与 'jieba.analyse.extract_tags' 有一样的参数,但前者默认过滤词性(allowPOS=('ns', 'n', 'vn', 'v'))。
8 g3 J) T- L2 j) h7 i
8 A6 ]0 d8 @2 ]3 v' T( j, _0 [/ @7 O( i7 x7 S

吉林 1.0
) I# ~! A& @$ l欧亚 0.99668933541781722 v" N: \8 r# g1 x
置业 0.6434360313092776* ^+ X* [) q; m; x
实现 0.5898606692859626
% _: I& y6 Y9 t! u+ o收入 0.43677859947991454& F4 C2 Y9 Y0 j% `8 f  Y/ M9 n1 a
增资 0.40999005312832767 V# {1 A9 {. P
子公司 0.35678295947672795
3 ^' P4 A7 m+ |( D0 j% c城市 0.34971383667403655# @- b$ \1 i2 `6 ^& b
商业 0.34817220716026936
) q, D& X9 H1 {. o0 [业务 0.3092230992619838
) |- `6 Q: s& [# w在建 0.30779291640330888 m) b* t; I4 b  @& }5 X8 v
营业 0.3035777049319588
0 b/ y/ ]/ o9 z' Q' u4 n1 T全资 0.303540981053475
  m2 ]; X6 w% }: S" i4 R% a综合体 0.29580869172394825- K7 N  P$ o7 P- l2 r. H
注册资本 0.29000519464085045! B, X9 D& Y5 ]" h4 ?
有限公司 0.2807830798576574
5 j" t; z6 M/ K: x零售 0.27883620861218145
5 C0 S& A! j) G) n  ~5 s百货 0.2781657628445476
7 K3 X/ G6 B/ V5 E' f开发 0.26934887792958515 e" h8 l  {! z% @2 w7 G! i' C. [$ x
经营范围 0.2642762173558316+ _8 U, f3 p/ t* M6 y* M3 a2 D; k
( M) i( }. {# T" `! v  n; b7 \
使用 jieba.analyse.TextRank() 可以新建自定义 TextRank 实例。
# g" D6 [  F& ~# y3 f* Y4.3 自定义语料库
; p$ ^7 x: S. D关键词提取所使用逆向文件频率(IDF)文本语料库和停止词(Stop Words)文本语料库可以切换成自定义语料库的路径。' |1 ~( q) b) @

, E2 x. V- o$ U9 c* q
2 E! b" A9 ^9 L  b

吉林 1.0174270215234043/ o0 w! H8 [8 Z" t
欧亚 0.7300142700289363
6 U7 B5 Y+ ]- u/ A$ h& y增资 0.5087135107617021
- E- F: N) B% u2 s实现 0.5087135107617021
& a3 i+ K" T+ @/ Y置业 0.4887134522112766' A, E3 ~; [. }- o: d+ B- \
万元 0.3392722481859574
8 s* D: f3 p1 ^" Q' P# p/ m6 m" W3 w* [此外 0.25435675538085106
, i  g" x4 Y# h; t+ L( n全资 0.25435675538085106' _: O0 `8 S! j9 f1 a5 H& o
有限公司 0.25435675538085106+ T$ W/ m' J% m
4.3 0.25435675538085106
' T7 M& L* b- Y2 T  B+ T注册资本 0.25435675538085106/ A/ l, \9 {9 x1 N
7000 0.25435675538085106
$ n% X4 `) v  `' {& T$ `: L增加 0.25435675538085106/ @/ x0 Z. Y( |# I8 M" R: i
主要 0.25435675538085106
8 t' z9 u6 E  _* P房地产 0.25435675538085106
) I7 ]- k. `5 p2 H/ D5 o5 {9 d1 ^业务 0.25435675538085106, p# N" S- w  }+ {3 x
目前 0.254356755380851068 m7 ~- \/ M& j4 c) i
城市 0.25435675538085106
$ P* r$ W" W, ^综合体 0.25435675538085106
3 V0 f6 h% i) W; \2013 0.254356755380851063 k. R+ q3 f7 s9 a6 N
) {. c1 A8 s  J. l( S6 y% m, L: u

7 @0 L- ?# h/ g# o6 B% R: E6 W5 词性标注
9 l4 P2 C* A8 U7 b' @+ N4 H/ Ajieba.posseg.POSTokenizer(tokenizer=None) 新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。jieba.posseg.dt 为默认词性标注分词器。
! N; Z# r( S& v& m/ i% e1 m7 Y# 标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。
) K9 S/ I* D/ M) F3 `: k) V3 L- B1 e3 b+ A' D
# ]; ^% F" u8 E: j

他 r

改变 v

了 ul

中国 ns

6 并行分词/ }0 W4 {' |/ J  [" m6 ~. u
将目标文本按行分隔后,把各行文本分配到多个 Python 进程并行分词,然后归并结果,从而获得分词速度的可观提升。用法:+ ~# f+ G* @" j$ `. P/ T3 }

# 可参考 test_file.py0 x0 a6 w: x- N5 p' _1 J
注意:基于 python 自带的 multiprocessing 模块,目前暂不支持 Windows- b" T' d2 y" S$ A4 A" R
  g; f* z7 R" ~  N' m/ {0 ^

- T; r- o5 g* p$ P  u; Q( w$ F5 Q! n7 返回词语在原文的起止位置

使用 jieba.tokenize 方法可以返回词语在原文的起止位置。

注意:输入参数只接受 unicode

【普通模式】3 u- l7 z6 N6 r5 r
word: 上海 start: 0 end: 2
0 ~2 d1 }: `* ^. i* a, K. U' rword: 益民 start: 2 end: 4
. f+ n1 p" {0 Q# E  M- xword: 食品 start: 4 end: 6* A6 i# ]" K& R
word: 一厂 start: 6 end: 8, q) v* d8 F7 e& G& N
word: 有限公司 start: 8 end: 12! C' y( i2 t" y% Y# U( @$ A

& d* I9 }3 n8 ~7 q' Z6 ^/ K
; D4 k' S3 p3 ~# u. ^0 E7 {3 S3 S

【搜索模式】5 R% F( _* c- D) i$ r
word: 上海 start: 0 end: 2
2 e8 S7 ^; \  y1 Z, Kword: 益民 start: 2 end: 4
5 w, w$ r+ V6 K! Z# sword: 食品 start: 4 end: 61 s3 S5 U; `* a
word: 一厂 start: 6 end: 8
# Q/ Q# H. n8 [( s* s2 r" ]: }word: 有限 start: 8 end: 101 |* s" o1 |1 Z
word: 公司 start: 10 end: 12
  q9 d3 l. W' E+ G/ L& [word: 有限公司 start: 8 end: 12


3 ~2 M8 g% ?" b+ u% \" _- s7 c* f' R4 r1 e# u1 x





欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5