QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1919|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    0 W7 \( M, W; i* s% R2 n& ]8 |  首先要弄明白分类和聚类的区别:
    $ o' K) O& v. r$ U     分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。% p* N3 k  c; x% k% x

    $ ^4 ]* U2 ^% o; H- ^  {      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    9 K2 B8 R- t! a& @5 E' [" l" L5 ?% o9 M1 ?- y8 R
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    6 p& d# y4 p4 X8 D( T$ }" n8 w& Q3 Y2 y8 Z- |' y% Q8 V
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    ) ?# M/ F. Q* `7 `3 S9 n8 d! F4 }7 x9 a& G& G) @7 A- P
    . D. X7 H/ v% j( i: B5 v6 Q: k
    $ T* f8 X6 O, {" J* ?3 j6 B3 m$ ^) r
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。8 q" o$ B5 Q9 }, O! v$ o

    * O: a" J( m$ E. w5 A1 r     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...  \  n. p- W% H4 s/ r
          当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。* C& F- Z# g# n& w. c( w0 ?

    / G" g4 E3 |6 \0 l; S* t       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。8 O& h5 O0 n) Q& i5 }
    --------------------- % {) f1 o' D9 {  ?' L7 m
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:! S: t  m2 }4 s1 ?* F: b
    * Y4 x, f! f  F& Y, c

    9 ]' o8 d$ Z  |8 j% X- `) P( b% P# K3 }" U) h) g. K- L2 \* \  [
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    " S2 T; k" D1 B8 X3 R8 y
    ( J1 t" n7 E5 {: c; L: l2 O, ?( N% v+ [2 k5 N) s" |

    5 O2 p: M9 b, n% c' E# J5 J4 D3 g* A/ R

    1 T0 `. I( o- V- H
    4 J& I2 s$ o6 D
    , ], W. s+ x/ M- M     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:2 |1 a4 M+ G& o1 h- f3 Q/ X+ M

    # {- g) v  ~4 a$ ?6 k
    ! A+ y8 g: \* Q- e( k3 m" c
    6 m* H) o3 X7 O- V/ r3 c4 X& r1 p6 ^' x+ Y

    ' j& a- n/ e# i, J
    ' s" T6 ~: E$ ~* X% `# m7 }* w" q! V% j/ C0 F$ b
         因此,可以得到任意两个销售员的数据距离矩阵:
    ' P  N  i4 g5 A6 [  y% Q+ q: R0 }6 o3 J5 c4 K

    ' x9 Z5 G1 H& A1 ]6 M9 G
    ( Z+ {4 A: v$ {/ n; h9 I! Q, cStep1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;7 Y+ L) o" }5 [+ V

    , Z6 k; T  r) ?% @Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;8 z0 i' w. U9 P/ p( y
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; : c, v' q  Q; C2 s, T( ?
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    7 v; }: j1 P7 M  l' u' f: i2 @3 M
    # j& `8 a% o& A5 c: R$ a- F   代码如下:%% 编程实现clc;clear;close all
    " O6 d& I( L: k6 i( Ldata = [1,0;1,1;3,2;4,3;2,5];%原始数据+ P/ R1 T  v* B/ g
    [m, ~] = size(data);+ ^& N( H9 K0 F* W% N7 E& R
    d = mandist(data');%求任意两组数据的距离
    3 a  s$ I* v6 R5 ad = tril(d);%取下三角区域数据
    2 n' y0 b3 g4 }9 ynd = nonzeros(d);%去除0元素
    , y2 C# d& N/ n" Q1 z( ind = unique(nd);%去除重复元素3 _0 V5 u: q/ H8 E! P- i) w; i& O9 s
    for i = 1 : m-1
    ( X/ k+ O3 w) g# O- H" m# u1 e     nd_min = min(nd);
    9 _& V. k! N" c! Z% C  l     [row, col] = find(d == nd_min);! a: S9 r5 W* N
         label = union(row,col);%提取相似的类别
      D! j+ [) E; c: R' v( P* x     label = reshape(label, 1, length(label));%将类别标签转化成行向量* ~6 Q  k, ]  h$ Y
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    - r1 ?8 H+ U. O* R, f! m2 }     nd(nd == nd_min) = [];%删除已归类的距离6 u! w; B- Q& b6 a( r- e# U
         if isempty(nd)%如果没有可分的类就停止
    2 B/ q* h, G9 T, w" l/ O         break$ {& {3 q8 e1 R( r% }$ P- @5 r1 m; D
         end
    8 B- t, r, S* p0 B end
    % o- r' u& }9 e1 H8 V+ {%% 工具箱实现0 ?) x7 Q! p" s3 m2 i) j
    clc;clear;close all. E& X9 p# z: x. ~6 K. D
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    . G, o2 P9 M. ?, ny = pdist(data,'cityblock');%计算任意两样本的绝对值距离# i. V% s0 E3 W0 R( d; }9 P
    yc = squareform(y);%将距离转化成对称方阵
    . \; L* J. s4 pz = linkage(y);%生成聚类树
    5 u: l3 t' {8 F  n+ }[h, t] = dendrogram(z);%画出聚类树
    " Z1 ~. c2 c$ X7 M4 G( ^6 s6 e( O, h( \n = 3;%最终需要聚成多少类
    " g) }3 f( j; ^9 @6 aT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    + _. v$ L  [& d. vfor i = 1 : n
    ) }' q7 }3 U+ W3 C    label = find(T == i);  z6 }0 o& [$ f8 v2 Q9 ~8 O% x
        label = reshape(label, 1, length(label));& w5 E6 v; _% |
        disp(['第',num2str(i),'类有:',num2str(label)]);
    + }/ G+ ^+ Y# N- ^0 E+ c: B6 ?" Pend" a( s  q/ |- W  [
        结果如下:( ^& F, i2 r& a/ m
    % M1 n# n) o9 {* [8 z% }
    ---------------------
    . J' ]" D7 |0 [; E; h6 Z$ s; s
    4 N: U! X, v$ {+ H) X3 A' N9 m
    6 d, J- m& z8 L7 A1 i" S' G8 e7 N& L

    9 A0 r5 A# X" x: B, ~
    * Y$ G3 `( A% I8 S6 U
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-9-17 13:56 , Processed in 0.765166 second(s), 50 queries .

    回顶部