QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2008|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    ) b: G+ z8 x. ]* b  f  首先要弄明白分类和聚类的区别:3 _/ N) F. V6 e# f9 o
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。' F; H6 I* G' k2 c% I" b2 g/ w6 [: P
    # [$ _0 k6 R  }
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    6 m2 x8 z: ~: g/ n
    ; c% i' U8 @: Y, I! _# ~6 h0 d     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    & U( M9 f5 \% T# h9 A: w* ^. a1 ~5 N& p, S" d$ _0 J3 l% h
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。' c: C2 _. M8 ^# x. d0 j! ]2 d
    # m0 r, {# m4 b6 j" x' f

    7 J" _! r; }  \* L* A% S1 _  W" |) q7 Y
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    ) A# [' q8 c+ w: o& j' z
    4 U1 t" d8 `6 w0 Z; K6 o     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    3 F7 H% _! E$ P! \! i1 e3 d      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。! c6 K- h: H( y7 v
    + }& G& |9 Y& E: w- R( o$ @# Y) L
           接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    1 w: I5 K- x8 E5 K---------------------
      O1 W1 o% `8 }% g" X, Q- _. N     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    5 [! U0 b8 v9 J0 k
    0 c, X* r1 a2 P* M! ~& y! A$ P+ y) v, S; _, ^1 x5 d

    % L- E* [4 n: Y7 `9 v, Q8 o     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:# a2 K, P3 q6 k% m) f6 T
    1 B$ q* U7 ]( ~; t$ \. O" X; a

    ' I9 _$ E5 j! V# d
    4 d) i; E' e5 ?4 V+ T: O- _6 s+ W3 \0 K% T  J! _2 i
    2 u) O9 L- c! z3 t* v
    , |# S6 l$ ~+ ^3 y# Q$ ?3 s
      p6 \! E1 K2 V+ I
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    : e. P2 r. \9 R* K. C% V6 b. k* f
    6 U6 l1 W0 L! e; d7 |! y
      `. b$ a7 T9 r  Z
    & y: M. |8 [* t% e
    . h6 K; L* V4 K# b3 f0 g4 J* S
    " X# t) X3 [  w( q& v' w, o% {5 B3 |; ]7 d
    , z! ]7 z  s2 N$ Q
         因此,可以得到任意两个销售员的数据距离矩阵:& n! m1 I2 i/ p6 ~! }1 p* B

    & T+ C6 Q/ J+ n5 J2 d; H% M! o/ O* d- \6 w9 h6 j6 X

    $ D: _" @$ ^: B' J: h# |% DStep1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
    5 [5 I8 \& h4 s0 X6 ]
    1 l5 _) S% C& F' _3 S  N$ GStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;7 V4 \- C( S/ c6 z4 w) Z# K
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; 0 `- b# K1 O: f2 ~# M
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。3 w1 }' U& L6 d8 B: a+ f/ c
    # X7 A, F' ^4 P6 t
       代码如下:%% 编程实现clc;clear;close all9 Q, j. t& s3 F9 ^
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    % n9 ^% z! t$ }0 \& d: A$ f. R4 E[m, ~] = size(data);+ j/ f: {: Y* ^' J0 s& j
    d = mandist(data');%求任意两组数据的距离) \1 _9 X) j& x+ {1 ^6 a
    d = tril(d);%取下三角区域数据9 F2 L5 Z9 @0 N
    nd = nonzeros(d);%去除0元素
    1 v- z/ ?0 K. y# v* `/ [nd = unique(nd);%去除重复元素
    , h7 p7 f; d3 }* @ for i = 1 : m-1
    ( W  M5 g2 E. H" x9 {- H     nd_min = min(nd);9 g/ K6 j" N+ U- H
         [row, col] = find(d == nd_min);2 i1 @3 c4 F$ R& {; I6 J3 g
         label = union(row,col);%提取相似的类别
    0 Z* _1 @0 p) g* e7 `     label = reshape(label, 1, length(label));%将类别标签转化成行向量
    5 g0 m" l% t  {7 }9 e, b     disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    ' A- `2 k" M: i1 |  M4 [' M) X# ^, L9 {     nd(nd == nd_min) = [];%删除已归类的距离- D9 n" h/ Z8 j( F
         if isempty(nd)%如果没有可分的类就停止+ h  A$ p" ?5 [4 |
             break7 d7 H- R; P5 z% E
         end- @3 a) L$ p" X/ H! {  G' m4 W
    end
      n( E6 _3 x7 Q8 v6 J; A%% 工具箱实现0 E- f( n- Q/ l$ |/ N! T$ j# v
    clc;clear;close all
    0 V# m6 F: s$ V. mdata = [1,0;1,1;3,2;4,3;2,5];%原始数据1 v, K+ C/ j! |3 E% ]! I
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离* p2 }7 ?9 I, ]% A0 G) b, z
    yc = squareform(y);%将距离转化成对称方阵' |( c5 r2 B* G  Q6 m8 i7 s$ q
    z = linkage(y);%生成聚类树" m0 u3 f9 Z/ I) H
    [h, t] = dendrogram(z);%画出聚类树
    & h. B0 Y4 R% Q3 K( ?: s+ [& Mn = 3;%最终需要聚成多少类+ V+ d  `/ j$ e4 N0 Y7 |3 n
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签! U) Q+ ~' B* ]+ O8 ~
    for i = 1 : n
    , }" ~0 |7 P! F& Z    label = find(T == i);
    " v- y8 E. I3 }9 m% _    label = reshape(label, 1, length(label));
    6 {- I& @: w: g6 g+ U- L8 d7 K    disp(['第',num2str(i),'类有:',num2str(label)]);
    / `- Y  J% I! ^! }end
    . {7 K% A* d: G4 Z" y  j# ~& S    结果如下:
    ( j; Z; ]; J+ D4 e6 n8 l8 ~0 d) a" z, m
    --------------------- : b. q0 R9 [  ^+ E( @' K( U
    , Q5 g: }' ?# S% Z( }

    $ @+ n, _( `5 }, c7 o8 R9 Q2 Z% F! V$ ]

    , D* V& D+ e) u: n/ s/ z" v* L- V1 _" K5 [/ B, B
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-16 02:42 , Processed in 0.772264 second(s), 50 queries .

    回顶部