QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1823|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    1 I' Y1 J" [1 {, f9 t3 f  首先要弄明白分类和聚类的区别:
    * V- C6 b: E4 Z. o, ?2 W     分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。! C; p0 T5 z% Q" h" ~0 ?

    4 t" h7 }. f7 C# U+ U& j      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。$ f) S1 I$ Q% t, ?  M3 l

    ) b; \) |9 s$ w% _     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。3 V' h; V! l! Y
    8 r% G2 w6 c! t! t
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    1 B3 Q! {/ M2 _+ F
    % b4 M2 h1 p! U" M# a8 N* u
    + K6 |2 v/ h+ ?1 @7 M, w5 w) g( R6 g0 |0 S9 C0 j) A
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。$ p& h' z9 X$ w1 O
    - }( v/ g. g3 G: J
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...: }" t8 t. s* T/ ]/ d9 L3 H( o. e
          当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。6 ~+ x9 e! a. x$ V

    : S* }! _) T* ~% `  w1 r8 Y       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    ! W) G5 u) R/ z7 M--------------------- % C/ {- s: D/ l7 t$ Q! X
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:- N' {7 {8 \* V4 N* h/ I
    " t2 H6 \& A# {& U: T# L2 n  j: R

    $ z: f2 O" I0 U) ^* y; `% {2 p
    ' U' E9 [# \0 p8 q5 b7 Y) X     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:1 J3 q4 y; b) g) M
    1 W+ N1 t8 Y  ^
    * a$ v  f9 O. @2 m% p
    5 b9 j9 A7 z4 A. Y* [

      |: R0 H3 U" f. K4 C7 s
    : }: Z# r- l2 ]- z
    ; L1 _5 u- y& B
    3 A6 `3 G: w- ~! v     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    / k1 |0 B( R- l3 g) o1 K
    - Y$ s; Q$ Y/ C! [1 W) T
    9 F# z' b0 ^& h  X* P6 N/ B  V/ }+ a/ o5 f
    # h* N3 _( G7 C1 X+ w

    ; S4 g  w+ |& j7 N. r: A- N- W2 p8 J

    7 A  T/ G; J9 t# t1 U, h+ s2 t( G     因此,可以得到任意两个销售员的数据距离矩阵:
    6 s& m) e1 b) ]1 }+ X, y9 P9 F' M2 ]+ H) b4 E/ C& e

    2 @  U$ G% l4 d+ Z* D. S/ _2 ^) k) l6 p
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;" D' b: N7 O9 L
    * D" D7 o) x: {5 _1 K
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;! U" h& g9 i/ M3 ]+ z4 @' x
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    - s) |: ]! a" `$ rStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    $ j$ ~  ^& b+ v  Q" E) b7 s/ A* {" I
       代码如下:%% 编程实现clc;clear;close all
    - T0 U+ k) o5 k: C. T7 mdata = [1,0;1,1;3,2;4,3;2,5];%原始数据0 b. S; F! K6 v7 s9 k: Z1 b
    [m, ~] = size(data);
    6 F7 A( [) r0 m6 x5 O5 C# @d = mandist(data');%求任意两组数据的距离4 R1 \7 P  w: }6 a. Q" Y
    d = tril(d);%取下三角区域数据
    - e/ Q2 D1 {- a" N& l5 z1 }& tnd = nonzeros(d);%去除0元素4 d' q$ O$ D; L! C- Y
    nd = unique(nd);%去除重复元素
    / J( a6 r! T' ]* @2 ?, h0 m for i = 1 : m-14 }8 [+ ^3 w1 U
         nd_min = min(nd);5 I% Q) L% N3 n% c/ O) n. o. Y. O
         [row, col] = find(d == nd_min);
    0 t$ i( F6 N/ s4 C5 t     label = union(row,col);%提取相似的类别7 t( T$ \5 V2 @! [% o
         label = reshape(label, 1, length(label));%将类别标签转化成行向量% @3 I5 f" i! W4 }7 s6 b
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);' X) |& Q! @0 l8 T* A+ z
         nd(nd == nd_min) = [];%删除已归类的距离
    9 L5 O4 b0 C1 ?8 o& a     if isempty(nd)%如果没有可分的类就停止
    : R9 r  S1 L! x) p" k1 G. W         break; Y! C- c8 G# R8 P% ]
         end- p# K  Z5 m$ ?* j
    end( Y* {, |, d) p/ P' `
    %% 工具箱实现
    + Y: F0 q, G$ x0 d% ~clc;clear;close all5 N- X1 k1 b- A: x
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据! g) X3 i( ]( o8 m& K
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离: d% F, q$ [8 }- @' ]- c# c
    yc = squareform(y);%将距离转化成对称方阵; a, h7 K/ ^! z0 N" [7 w7 T
    z = linkage(y);%生成聚类树8 d3 T, E, B9 ^: k% K" e. O
    [h, t] = dendrogram(z);%画出聚类树
    6 v/ {* s' r1 Gn = 3;%最终需要聚成多少类1 _) t$ f/ C8 F& E2 h  C8 A; B* m
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    8 e( V7 ~$ c; b+ s0 m& ?for i = 1 : n/ v# m2 L+ S/ W8 n9 Q; b* Y+ e
        label = find(T == i);- o1 b; u( X" f; K* T  M
        label = reshape(label, 1, length(label));
    ! }4 e. u7 j& I* I+ ]8 w8 z  p2 q    disp(['第',num2str(i),'类有:',num2str(label)]);
    . T2 j: L& M* f0 yend
    + `  F" G+ D, v$ [9 }    结果如下:) V/ M  ^( K0 v8 u% B
    / D# j( T7 D; a2 u3 ^- x
    --------------------- 4 _+ U' P( X, s8 z  |* z4 B

    # Q) w: T( c5 E; I2 c  _5 j: F( P
    - D  G( [, e+ X; x) a
    " C* C0 T9 s( p% _$ y  x
    7 D5 S; n; j9 O5 f7 N- Z- k% C! _4 d6 j3 i- I, S
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-23 15:47 , Processed in 0.390930 second(s), 51 queries .

    回顶部