QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2775|回复: 0
打印 上一主题 下一主题

数据挖掘算法——常用分类算法总结

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2021-4-9 11:20 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数据挖掘算法——常用分类算法总结
    % [" W) I, f; f4 E) w+ q* l: e& K0 ^- G2 c) q
    常用分类算法总结) j. W) s8 a" g4 w
    分类算法- P8 N$ f& P0 d/ U1 u
    NBC算法
    ! i1 H  ?! I$ _. M! _' e2 mLR算法
    7 C7 E1 E) J& YSVM算法, A2 u$ A& Y5 {: C
    ID3算法
    9 k8 e9 w" v& _. T+ E, C3 dC4.5 算法
    . ?) N+ [2 o4 y1 BC5.0算法
    ) l1 z, D8 X$ r* ?$ C3 dKNN 算法
    8 K( S- u' i, c# _ANN 算法2 V1 a' [' ]5 \, ]3 v: U2 z
    分类算法
    5 b/ ~3 A) Z" A. u分类是在一群已经知道类别标号的样本中,训练一种分类器,让其能够对某种未知的样本进行分类。分类算法属于一种有监督的学习。分类算法的分类过程就是建立一种分类模型来描述预定的数据集或概念集,通过分析由属性描述的数据库元组来构造模型。分类的目的就是使用分类对新的数据集进行划分,其主要涉及分类规则的准确性、过拟合、矛盾划分的取舍等。分类算法分类效果如图所示。  v: c9 e6 b6 T" R. p
    : |/ U& d. n6 I6 w6 I3 r* T
    常用的分类算法包括:NBC(Naive Bayesian Classifier,朴素贝叶斯分类)算法、LR(Logistic Regress,逻辑回归)算法、ID3(Iterative Dichotomiser 3 迭代二叉树3 代)决策树算法、C4.5 决策树算法、C5.0 决策树算法、SVM(Support Vector Machine,支持向量机)算法、KNN(K-Nearest Neighbor,K 最近邻近)算法、ANN(Artificial Neural Network,人工神经网络)算法等。
    9 a6 Z6 s: p: Z- S4 i4 l8 ?9 [# ?, F; W; H) X. R# Q$ S+ l, V
    NBC算法8 P8 T% J1 Z: ^1 `+ e
    NBC 模型发源于古典数学理论,有着坚实的数学基础。该算法是基于条件独立性假设的一种算法,当条件独立性假设成立时,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。' Q. _9 s, E6 L# C7 P% a) F
    NBC算法的优点, T7 ]5 u2 ]% {) n/ M# k2 I8 e+ B

    9 \1 t6 B( D$ z9 Y8 tNBC算法逻辑简单,易于实现;1 J" [% Y; y! k' K6 A
    NBC算法所需估计的参数很少;
    * P6 y  v1 k" \3 f2 cNBC 算法对缺失数据不太敏感;
    9 M* k1 S6 ~5 N% l$ t; }1 `$ sNBC 算法具有较小的误差分类率;2 v( f: Y2 |1 n* L1 f5 V7 E
    NBC 算法性能稳定,健壮性比较好;
    8 E9 ~% |- F6 L4 t: zNBC算法的缺点
    ) X7 p, K; z: S. v1 H1.在属性个数比较多或者属性之间相关性较大时,NBC 模型的分类效果相对较差;& g# k4 B, |- J, I1 x
    2.算法是基于条件独立性假设的,在实际应用中很难成立,故会影响分类效果  v- N) P% U$ b5 y
    / a7 v" Z6 v( T
    LR算法
    8 J# w+ j4 Z4 p4 |8 y/ eLR 回归是当前业界比较常用的机器学习方法,用于估计某种事物的可能性。它与多元线性回归同属一个家族,即广义线性模型。简单来说多元线性回归是直接将特征值和其对应的概率进行相乘得到一个结果,逻辑回归则是在这样的结果上加上一个逻辑函数。在此选择LR 作为回归分析模型的代表进行介绍。
    / K& l/ N5 m5 M$ ~3 mLR算法的优点
    + j" a& P( \% [1.对数据中小噪声的鲁棒性好;* F  I* C4 T4 `2 a3 Q' {3 z" e
    2.LR 算法已被广泛应用于工业问题中;% @  |5 N+ ~4 C/ D$ N# V
    3.多重共线性并不是问题,它可结合正则化来解决。
    ; l8 k& }% u) E7 z) d, E, X/ L) t
    8 r# Q, L3 o. O. ~' ?  u; sLR算法的缺点+ n5 t! z7 k7 }" S0 T
    1.对于非线性特征,需要转换
    4 s7 Y! P7 s2 O: g; b, \* a2.当特征空间很大时,LR的性能并不是太好
    . s9 w. |2 W- S8 a- r, n) _7 D+ _  F* m$ ~& T
    SVM算法7 G/ |4 ]+ b2 x
    SVM 算法是建立在统计学习理论基础上的机器学习方法,为十大数据挖掘算法之一。通过学习算法,SVM 可以自动寻找出对分类有较好区分能力的支持向量,由此构造出的分类器可以最大化类与类的间隔,因而有较好的适应能力和较高的分准率。SVM 算法的目的在于寻找一个超平面H,该超平面可以将训练集中的数据分开,且与类域边界的沿垂直于该超平面方向的距离最大,故SVM 法亦被称为最大边缘算法。- {/ h* Z) {: H" e9 E$ i; m3 G+ ^

    2 c; r# W6 Q, C6 v+ HSVM算法的优点  `, }9 ?( q/ S
    1.SVM 模型有很高的分准率;5 M3 y2 X6 H0 b6 Q
    2. SVM 模型有很高的泛化性能;% V  o) o3 d8 H: {* k% h
    3. SVM 模型能很好地解决高维问题;
    ) d# C% o$ y7 ^4. SVM 模型对小样本情况下的机器学习问题效果好。
    7 P( ~$ r4 h% a, A$ X( @! f6 E+ W. Q8 i7 R
    SVM算法的缺点/ e$ k9 R6 U) K# E* Q9 s
    1.SVM 模型对缺失数据敏感;
    ( d, |* X" l# t4 M* T$ Q2.对非线性问题没有通用解决方案,得谨慎选择核函数来处理。
    ; H# G* p, E. h& V+ s# O6 F% @* h  d. X2 @  D$ p
    ID3算法
    " g( [' `$ |; s+ ]7 _  kID3 算法是一种基于决策树的分类算法,该算法是以信息论为基础,以信息熵和信息增益为衡量标准,从而实现对数据的归纳分类。信息增益用于度量某个属性对样本集合分类的好坏程度。ID3 算法的时间复杂度为O(n*|D|*log|D|)。8 j2 a: Y* I0 M8 q1 e
    3 V% K! a$ q' d4 |* p4 N
    ID3算法的优点
    ' W7 H7 L3 Y+ F5 A) `' k3 R/ f- T0 A* K' @: \: j7 r
    ID3 算法建立的决策树规模比较小;/ `4 [" o, \9 L# @$ g  G9 M. z8 F) ]
    查询速度快。
    % {* `* I' ^- C9 W* d' S0 E  E, KID3算法的缺点6 q& _' [9 A+ T
    1.不适合处理连续数据;
    4 C6 I4 e4 A# R" R6 m5 y2.难以处理海量数据集;
    5 |( f2 G* D- b$ C% m  Q6 y8 p' `3.建树时偏选属性值较大的进行分离,而有时属性值较大的不一定能反应更多的数据信息。4 F$ Q" f9 P9 s7 l7 x% m5 g
    6 e* d( B  B9 r/ t: r+ g
    C4.5 算法
    % q1 P- }: D  I" sC4.5 算法是ID3 算法的修订版,采用信息增益率来加以改进,选取有最大增益率的分割变量作为准则,避免ID3 算法过度的适配问题。
    , E, a  i+ @% w  g
    2 K# M1 C8 w0 X% y3 ]" y* EC4.5算法优点
    # A8 q! ^2 A! F: @" s9 G, a1.C4.5 继承了ID3 优点;$ ^# g$ [1 `' L, \2 |
    2.在树构造过程中进行剪枝;! [. N( C  [4 I8 x
    3.能对不完整数据进行处理;
    % Z3 E8 {* n7 f" s/ u8 A4.能够完成对连续属性的离散化处理;& T& }- t) A1 u# M  K, a+ m3 Q5 ?
    5.产生的分类规则易于理解,准确率较高;' Y7 J9 j- k" {4 M- ]( p
    6.用增益率来选择属性,克服了用增益选择属性时偏向选择取值多的属性。; ~; @3 n' Q) ~" B% X! e
      p8 Y8 N, u/ c) o/ g
    C4.5 算法缺点$ W1 B" Q3 H" k* q
    1.构造树时,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效;
    . s; p& z( k; H# i7 T3 r1 {: p2.只适合于能驻留于内存的数据集,当训练集达到内存无法容纳时程序无法运行。
    3 }& a3 C6 Y+ ?; \3 u# `% c5 @) a, S; g, s/ w; \
    C4.5 用于遥感分类过程中,首先依据通常的方式建立第一个模型。随后建立的第二个模型聚焦于被第一个模型错误分类的记录。以此类推,最后应用整个模型集对样本进行分类,使用加权投票过程把分散的预测合并成综合预测。Boosting 技术对于噪声不大的数据,通常通过建立的多模型来减少错误分类的影响,提高分类精度。
    $ {7 o- V* A' B% z
    9 \1 V2 y& T' e& n' z# |C5.0算法0 D5 `& P+ s: p: V5 [# O) O
    C5.0 算法是 Quinlan 在C4.5 算法的基础上改进而来的产生决策树的一种更新的算法,它除了包括C4.5 的全部功能外,还引入许多新的技术,其中最重要的技术是提升(Boosting)技术,目的是为了进一步提高决策树对样本的识别率。同时C5.0 的算法复杂度要更低,使用更简单,适应性更强,因此具有更高的使用价值。
    , P. c' f! V: D9 \7 C2 |
    ! B" E: H# u9 A! ]% zC5.0算法的优点% {4 y6 |1 K2 K- A) k
    1.C5.0 模型能同时处理连续和离散的数据+ D- z5 `' o3 o. {# x
    2.C5.0 模型估计
    5 K' u: G) H2 }0 X9 O模型通常不需要很长的训练时间;" a- S+ Z; g% I" n
    3.C5.0 引入Boosting 技术以提高分类的效率和精度;
    ) o2 i/ T) p) L8 L4 g: b4.C5.0 模型易于理解,模型推出的规则有非常直观的解释;% }; C1 m* F4 Q1 ?
    5.C5.0 模型在面对数据遗漏和特征很多的问题时非常稳健。
    . i4 Z* e. b' V  u* w8 C$ [+ Z/ H4 q2 O( i* c1 y" C
    C5.0算法的缺点" j2 p7 }8 H6 N2 ~
    目标字段必须为分类字段。: }4 V- i& e. j) z: Z5 G% C6 t

    " w+ i6 ?( \1 n" V9 K: A美国地质调查局(USGS)在进行土地覆盖分类项目过程中研发了支持决策树分类的软件。软件分类模块主要是针对庞大数据量的数据集进行数据挖掘,找出特征,然后建立规则集进行决策分类。在分类模块中采用C5.0 模型来完成决策树分类、形成分类文件,实现遥感影像的分类。
    7 i. l/ g" [% f3 z; _
    * L4 g6 d2 ~" y9 y# lKNN 算法
    6 Y+ g6 S2 |( p% H7 f  I, Z8 E! KKNN 算法是Cover 和Hart 于1968 年提出的理论上比较成熟的方法,为十大挖掘算法之一。该算法的思路非常简单直观:如果一个样本在特征空间中的k 个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
    1 H. O  y; c8 l/ U; h! ?& ^+ F  ]1 l/ ]
    KNN算法的优点
    8 m1 ~* T- ]: t2 ]$ L1.KNN 算法简单、有效;
    ( F( F6 X1 V' s  h+ f2.KNN 算法适用于样本容量比较大的类域的自动分类;/ z- Y" w% n; O7 F% V, V2 p% Z
    3.由于KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。
    + \7 N; b2 O- B! [2 s' E! V1 @' H4 l* l1 J
    KNN算法的缺点: ~. u# T& J/ J- S/ f$ G/ u
    1.KNN 算法计算量较大;
    0 b. m+ \0 }' N% p. g2.KNN 算法需要事先确定K 值;
    0 K; b+ b/ C1 ]) x: M3.KNN 算法输出的可解释不强;
    4 u# i6 B% f6 r- s/ m* k4. KNN 算法对样本容量较小的类域很容易产生误分。
    1 Q& u- c. K# l: D/ t' v2 F  [' _& i4 [% i' w! h
    ANN 算法2 {: s8 {+ y6 q* S5 R/ |: k, B
    人工神经网络(ANN)算法就是一组连续的输入/输出单元,其中每个连接都与一个权相关。在学习阶段,通过调整神经网络的权,使得能够预测样本的正确类标号来学习。4 z$ F% Q( k8 F' m! C5 F
    + i! F: S/ F* G, g) l/ g
    ANN算法的优点5 t; C: f0 X& b. Z9 M% Y. [
    1.能处理数值型及分类型的属性;5 _' e1 E; P- ]" \' Q- |( ]0 R5 a" `1 J
    2.分类的准确度高,分布并行处理能力强;
    2 Y* e& ^4 B8 K4 }: o, n3.对包含大量噪声数据的数据集有较强的鲁棒性和容错能力。, C7 H9 b& q( X' @: p& |

    " Y% W5 }0 W. ?& V" X8 u2 l' d# G; zANN算法的缺点" k2 O9 O$ f5 Z& f- Q, u
    1.不能观察之间的学习过程;
    2 e: S6 p# d8 B' a8 W* G2.学习时间过长,甚至可能达不到学习的目的;$ @- o7 g+ d  H3 w3 L( k
    3.对于非数值型数据需要做大量数据预处理工作;$ `) i6 h! F" s5 J% X! |0 c
    4.输出结果难以解释,会影响到结果的可信度和可接受程度;
    & v" k6 A0 X4 j* y: K0 R5.神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值。
    * _4 U1 T+ A' G8 ]
    # P# a+ Z0 y; q0 z小结:: `: L; r2 `; V  E" x) q
    3 O0 {) O9 p) }: s8 M4 C) m
    算法名称        收敛时间        是否过度拟合        是否过渡拟合缺失数据敏感度        训练数据量" j5 N& g8 V# o: t, {8 {, N6 |
    NBC        快        存在        不敏感        无要求
    $ O; o- Q8 s" Y# E  h' f1 P) X5 `LR        快        存在        敏感        无要求) K, H) \2 L; t- l
    SVM        一般        存在        敏感        小数据量
    # Y& ]& \) @  BID3        快        存在        不敏感        小数据集1 G" f& G; g5 |+ ~4 H2 j
    C4.5        快        存在        不敏感        小数据集5 Y4 a) x+ `- a( K9 [* H4 \
    C5.0        快        不存在        不敏感        大数据集
    6 Y" d& H2 m3 G5 O3 @7 sANN        慢        存在        敏感        大数据集
    7 d0 c3 h& W) ^, lKNN        快        存在        敏感        数据量多
    3 [* P( F7 |6 z2 X; b0 \2 S6 g6 z) W: f+ g/ @+ ]( k) ?9 f' Y
    ————————————————) E" F5 {4 r: m+ X& w3 P
    版权声明:本文为CSDN博主「神技圈子」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    " J- r$ B7 a1 Y$ f原文链接:https://blog.csdn.net/songguangfan/article/details/92581643
    # v. e# V, K& ~) |: M  ~; u+ O0 g7 a6 K5 J4 }9 Q

    2 q6 ~: H! u7 m5 \4 Z
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-12-8 10:08 , Processed in 0.637625 second(s), 50 queries .

    回顶部