QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2003|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    : j; b8 M" D/ b$ M; z( H* p7 a* [& K  首先要弄明白分类和聚类的区别:2 ~. W' d/ t. ~/ p
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
    ( i6 [" ]2 |) c
    : Q# \/ j, w4 E6 ]5 S' a: o9 I      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。# w: {8 m9 i, P7 j" g5 Z

      W1 Q1 j1 N6 [% X) a: }     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。' ]* m5 |0 R* @0 C
    ! G4 ~7 O, \2 a: g9 I0 f, T
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    + v7 L6 w2 a+ P6 t) y  |. {2 {' L  u( ?- K9 ?+ _. j, g
    7 d, c% K, H8 @& k/ C& X( l) I

    9 ^. Q2 ~$ W1 H     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。; C, u0 [  C3 l2 }

    : a. T+ K' d8 ?4 {+ N3 j6 N     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    , L3 [9 p. J! _0 O      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    3 o: t4 Y( x2 s- `$ W  |
    + @1 P- t5 A" J/ x       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    5 E0 |# H7 C/ m( O--------------------- 7 E, w5 W/ ~& s9 `) n
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    5 _/ E: F5 Q# [) p9 |2 E  {' W) n* y
    8 h9 [: j+ L1 S

    6 I$ V; W: H3 c* a  q. Y     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:& [0 G; ?  I$ _+ T5 u
    - l% a/ Y0 l9 z& l
    ) P: H4 T0 K6 f) {

    ) w& v' W+ H7 C3 {6 c4 A& e. ~' q& n3 {" d6 `
    " J8 Z) W/ S* |8 n/ I7 T
    ; N# f0 q$ ?; O
    / t$ P8 I& i. @1 N: ]
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:; @, m, `# Q2 S9 B

    + F) B- \/ T2 G* I
    + ?# T  Y1 o/ v3 i
    , h; c* e4 B8 F( h8 L. A3 C4 H- m0 t9 _+ W% C
    + C' U+ w. n% w/ E. T; S
    : Z" c6 ]- K: D8 J) A( i; @

    . W" v0 B7 |/ h& W: j     因此,可以得到任意两个销售员的数据距离矩阵:
    + I8 P4 C! l; ^( _/ Q
    7 i$ v4 O6 S! ]" K4 s8 r7 T! N0 b. Q- r- w

    2 d; I2 f+ m* T$ ?/ f- w5 e8 v8 l0 qStep1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;) v0 L& A" a8 i) @2 H6 @* w$ ~

    ' Z8 m& \+ ?1 nStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    4 l$ o$ a0 e% IStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    # S( [. B$ ^; d+ \1 z* p& FStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    0 x& ]. \2 U% t( P- \1 \) h7 v3 m" x8 ~( V9 b
       代码如下:%% 编程实现clc;clear;close all) Y/ b3 S0 k$ V1 V: d% u
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    7 O( @5 }2 D2 U. D+ m5 {7 I[m, ~] = size(data);$ o4 ?, Z: t/ x/ i% l+ n" r
    d = mandist(data');%求任意两组数据的距离
    & n0 V- W5 J. ^$ J# ]: Q' Zd = tril(d);%取下三角区域数据+ [6 b  O& M/ n7 {( n
    nd = nonzeros(d);%去除0元素
    4 y. l' s7 K  k* p2 Znd = unique(nd);%去除重复元素
    3 p' L$ G3 t- p' q, O. M for i = 1 : m-1
    ' w9 J5 K0 D( l" k$ k! w- h- h     nd_min = min(nd);
    " u8 q2 Y0 ?+ R     [row, col] = find(d == nd_min);
    2 T  s/ p1 M; ]9 |8 F3 F     label = union(row,col);%提取相似的类别7 ], R: `6 c/ U0 o
         label = reshape(label, 1, length(label));%将类别标签转化成行向量
    ( j" k/ t. P0 O( r# ?7 D     disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    + ~* K. J" Q# }) x1 y. o8 R     nd(nd == nd_min) = [];%删除已归类的距离
    % f! q. x+ h3 P     if isempty(nd)%如果没有可分的类就停止" n: a0 b0 d( j9 U3 O
             break& z) t+ @- P% _1 `8 s
         end
    ! B8 H9 y  t+ w# q end# k+ O/ |0 i: {
    %% 工具箱实现
    * ]1 U% N6 }( _9 _: H5 L3 k, ~* \clc;clear;close all6 T' n# q2 K; X( i2 m, R! p8 ]* O
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    $ d0 ]- U) v6 n; |# q% dy = pdist(data,'cityblock');%计算任意两样本的绝对值距离  m) O( ~% n5 P) W. n. {& s) p! q
    yc = squareform(y);%将距离转化成对称方阵* N' [- V' u5 i9 z; p4 J6 m
    z = linkage(y);%生成聚类树9 q/ o/ \% j5 M3 z$ z$ O# c3 w
    [h, t] = dendrogram(z);%画出聚类树
    $ m8 d: K/ P, B# ]" cn = 3;%最终需要聚成多少类
    . o/ u3 [. B" kT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签# d3 E1 S8 Z9 _" W, c+ O, H
    for i = 1 : n
    % g" O# F4 L- l" \4 \  n& O5 t    label = find(T == i);
    ) _9 X8 q  _+ B0 a5 K' g" `2 K: [    label = reshape(label, 1, length(label));
    . h& W- Z4 e) M$ S$ O    disp(['第',num2str(i),'类有:',num2str(label)]);+ I. }9 I/ G' A) u( g8 s
    end, B/ F+ j' s3 S; k# U, Y7 P0 W
        结果如下:6 o7 H0 s" {& r' y

    ) k! l' H5 w8 x' _# O1 D5 r8 x) L2 Z---------------------
    0 ]/ D8 Q. t( u5 c1 W6 `. h9 E3 X: m# T" ?

    + z: V- _( s' @* R+ u) G+ k9 Q" ]6 m

    $ j/ j8 \4 p; O2 h2 j  ^
    5 S; a5 e6 m! @7 r9 W
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 06:50 , Processed in 1.481711 second(s), 51 queries .

    回顶部