QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1978|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)3 W( Y6 Z* z9 H* ?* h0 ?) {- }$ T; G
      首先要弄明白分类和聚类的区别:4 x4 Y) E2 t8 X3 @0 p: a1 F/ V) P! V7 s
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
    $ N% a: Q0 @7 d4 W
    8 ~1 {! Z3 U8 z& R7 l      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    + |5 r% L& r) m! h# w, Y& m6 \+ S. }# v
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。& ~/ T& F8 k5 j: f* J$ m* }8 n; E

    1 Q! X- p+ q" s     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    6 `8 H' A  b8 N) @+ a9 S1 r' l& K+ u6 i, g9 W
    2 I' f& D' G  ^, n3 B( D. E

    % D1 @6 r  Y6 b     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    4 B$ U% j4 }: B1 G  |
    5 c% j! h, c4 K5 S7 L     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...5 Q7 W# S0 U; e# |- g1 w
          当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。3 q' R# G/ W; R  M

    " P5 g8 M; H) W2 |3 w2 P       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    3 I& b  Y9 j# k0 M- U* a--------------------- / H2 |$ }/ \) K8 @: ]# ^5 G" i
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    $ A& j: c; p, i+ e2 s( R( f# n1 Y/ N# i. o8 ?4 E& D
    6 a) C, t$ N1 z$ d& m2 L& H5 k
    7 G; U; T2 `  V! I1 b( Y  _
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    8 B  g# {, `! b/ K; H, E5 J' G" [
    0 V( l; x) m9 s, K; K* L9 Y' U. V3 F: p$ M1 z
    . c% Z% v4 i. N/ @
    + @- _2 P, w( P( I. r
    0 O* {% i- n' s5 R. t  C2 K

    , k5 {& G  S9 v- l9 w! J. G. }5 O2 @& d/ p' [$ T" t  J
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    & I8 C# {7 o6 X9 S3 S
    0 ~$ d7 \, O5 m
    $ B( d3 x9 @& U. J6 ?5 N) X/ `: S( h& d6 h5 m+ b5 B3 |4 s

    ) p1 Y+ \5 ]5 P2 s! S$ K" o% d) a* h5 b
    , e9 u; f' I" c% g$ |7 p8 C4 @! G% O
    2 l3 F3 _8 Z; Z# T9 ?
         因此,可以得到任意两个销售员的数据距离矩阵:+ A6 `+ e! A! j2 x( F2 }" S
    5 F5 H0 ~$ [) y- g
    4 X& r% s0 s9 e

    1 U! ^1 G! w" j, a3 e0 a+ M. OStep1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
    9 x& h: x4 x+ d9 B9 J, b7 c5 Y( X1 i, q! \9 h  b, B- W, _
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;8 J( w, X0 E; T% _4 M7 }% W& a& n( q
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    ' V3 x" Y% i: Y$ q* oStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。0 C/ h& A  z+ ^
    / {6 Y8 g/ [! k1 N) K' f; m- J
       代码如下:%% 编程实现clc;clear;close all9 m: b+ G- `) x; f' ~7 b' M& o1 b
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    0 {9 I+ M) q% J: I0 x[m, ~] = size(data);; _; r0 \5 o* n* Q& E
    d = mandist(data');%求任意两组数据的距离
    : i6 T0 V7 i. l$ [7 @9 Od = tril(d);%取下三角区域数据
    # t4 |2 _, p  M0 ]nd = nonzeros(d);%去除0元素! d- \5 f8 b) q% J5 o
    nd = unique(nd);%去除重复元素# \, G* [& x5 J7 u& d
    for i = 1 : m-1
    0 q% w+ g  A- O2 m8 g, [  B     nd_min = min(nd);1 h/ ^- M+ d0 @, S
         [row, col] = find(d == nd_min);
    2 m0 t, x8 W+ N1 Q     label = union(row,col);%提取相似的类别
    " |: G+ Z0 \& |, `     label = reshape(label, 1, length(label));%将类别标签转化成行向量5 q3 M- }6 d) D  k
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    & ?% [( p( K$ X/ N     nd(nd == nd_min) = [];%删除已归类的距离
    * P" g. W2 x1 U; A* M6 V     if isempty(nd)%如果没有可分的类就停止
    4 Q9 n$ c/ V) I$ W; ~& c         break$ Y! m- `% _6 v0 M7 F6 R
         end
    1 e4 Q8 j1 w; {! c: P end4 p+ J) U; _9 A
    %% 工具箱实现2 V! m# Y- U' O5 f6 _2 V
    clc;clear;close all, @6 r0 |& W: W: C
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    7 N% A  }* t& b2 y" v2 Jy = pdist(data,'cityblock');%计算任意两样本的绝对值距离" U/ G- n9 ?; p; v0 v' `* _
    yc = squareform(y);%将距离转化成对称方阵
    4 l! U4 [: g" d7 J1 nz = linkage(y);%生成聚类树
    & P. d) v% E5 F$ S) u[h, t] = dendrogram(z);%画出聚类树: ^% }# A, @' A+ r: C+ K# r
    n = 3;%最终需要聚成多少类$ @  {0 \8 r+ Z1 j
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签/ X, P/ n. x5 [; I" e8 b; }% X* }
    for i = 1 : n
    # a! {1 c: ~  @6 q/ k& Y    label = find(T == i);
    ( q1 x. \( t6 U  M  p1 ^2 {5 h    label = reshape(label, 1, length(label));$ B, [$ w9 m9 D( g
        disp(['第',num2str(i),'类有:',num2str(label)]);* y' s& w6 h* c% O
    end) R+ H) [6 h/ ]  s
        结果如下:
    7 q8 \7 Q" r$ O7 T/ \/ \# Z0 R7 X1 h  ^
    ---------------------
    ' c) |  G0 ?2 l+ O# _! n: e$ m* d0 |8 v

    " a* _1 ]4 F4 E8 Q8 j) Q  t
    4 _; _' P0 _" k( V
    ) W8 h, L& p9 z) f& d2 J- {) Y) A+ G3 R6 j! o; a/ e
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-12-28 15:07 , Processed in 0.387451 second(s), 51 queries .

    回顶部