QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1812|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)7 @( q6 B/ |' R
      首先要弄明白分类和聚类的区别:
    $ ?6 R1 e+ m* c; k2 N     分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。( `0 `- I  ]' ]

    $ [8 f7 r# J$ I+ @8 i      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    $ l1 m6 K4 Q8 {. Y. w) K( w8 W6 v* e# q+ B* h
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
      r. i6 d1 `; v* ]- n
    2 J) ]0 D: E8 o# n     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    8 }" q3 S% W) c& j+ Q* v5 [6 K( K/ {6 X4 @. ?) p  d0 T
    ' R1 [$ R" t7 V( N% ]+ m. X) _  e# y& s
    0 k8 M8 S2 U/ [! |% T+ L
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    5 P, I9 o/ `$ L( b0 \8 O" Y0 A2 e/ G9 ]2 T' |' E+ H! w4 Z
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    7 x, C! p+ a* H      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    % k; c8 f2 d, Z2 q  m1 O6 C  c* u" U7 m
           接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。: p2 G9 U2 F. z
    ---------------------
    + ~  i3 ]5 t1 c) o1 _) s     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:2 i' ?) K2 [/ t6 s2 i

    . U; M0 m- w6 ]% d4 Z4 X/ J& N; W% z% |- e: {- V' p9 v; e
    ! G3 R# }9 Z3 I  B, N& S7 K
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    5 U0 ^9 ?- x% Q9 [! n( X% k& [1 L, p+ L9 Y

    - F" c8 h1 L" n) _5 M( F; I/ c+ G: b) T9 n  G/ n/ @6 q$ n

    9 {! m. j5 U8 j: V# \, V; K9 k5 U- H% e% I
    / ^2 H9 W' n) `
    - g9 F& Z; @+ Q7 G( Z% a( g
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:/ S% \$ M# l. \0 [# S3 `
    " ~) u8 p1 t) |5 p; q  @

    / u2 R6 m% h, \- w# D/ x1 B! x8 w. n
    ) k& p; Z3 ~( A- G0 ~. T  i9 y  k
    , j3 l+ y# I" Z6 G, Z% y
    ' k# M' P, B# n, _6 K4 U
    ( L6 o6 g5 \/ S  h) m) F5 z7 X. O3 g7 n. h$ m
         因此,可以得到任意两个销售员的数据距离矩阵:
    , m2 l1 ]/ d7 w# e+ ?4 r/ [' `, S1 c) B

    - U& u2 x% h' o' _1 d7 h' E" d! f- z0 r8 U: d7 s% o  r0 L
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
    * M% A+ y' i+ ?! Y  D7 H
    * g8 U: J$ f% F( b/ Z6 R* eStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;  [, L( Z( Y5 f. A% \4 ?/ v
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; . C1 A0 L* b* X) Z6 l. s" i
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    2 H0 a5 D( y0 b- }" p! W5 I, ^) Z( V1 A
       代码如下:%% 编程实现clc;clear;close all  [  s/ W/ e2 d' ~
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    4 r! g: ^4 \/ R1 `2 E3 V: f0 o8 a[m, ~] = size(data);6 _9 P2 Z5 i, R- r. l  r
    d = mandist(data');%求任意两组数据的距离
    9 v; h4 G( ^' F* bd = tril(d);%取下三角区域数据
    6 ^4 `$ D/ T9 ]8 ]1 f5 ynd = nonzeros(d);%去除0元素/ J- [" g* X* [  k- {3 [. }+ T
    nd = unique(nd);%去除重复元素
    7 d2 p: z( t2 f$ W4 w for i = 1 : m-1
    - B/ @) y  D% ]     nd_min = min(nd);. J( [. M7 D" s
         [row, col] = find(d == nd_min);
    9 o( a6 u1 J6 l" i1 _/ b     label = union(row,col);%提取相似的类别
    $ P# b* F+ U" n/ z     label = reshape(label, 1, length(label));%将类别标签转化成行向量8 r( w  e- f5 d! G
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    0 ?/ C8 O8 @# O: w: u! N     nd(nd == nd_min) = [];%删除已归类的距离
    4 u/ N! [# o; d6 e% F$ n     if isempty(nd)%如果没有可分的类就停止% c! j, ]/ J0 a4 e$ ]1 U
             break( p- H+ m' c: S3 f3 W0 I( B, z
         end
    ; ?8 z0 ?5 ?" V# l0 X) T( F6 Z5 u end  \# ^+ m5 i% T0 F% v1 s
    %% 工具箱实现* f7 O5 J2 ~- B! ^, T; Y
    clc;clear;close all3 q' u) @% H" ~& \. J
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据' X" L/ W1 e$ i6 v; [9 u, y
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离
    6 ?; K. b/ B2 s9 Oyc = squareform(y);%将距离转化成对称方阵
    ; U4 n2 H, o; H  O3 O) Fz = linkage(y);%生成聚类树- q9 U3 j8 t$ u, g# [0 y8 @  ~
    [h, t] = dendrogram(z);%画出聚类树
    ' Z4 ]( S  r8 C6 {n = 3;%最终需要聚成多少类& u2 B" t( ^. o6 |* M' r
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    7 y5 u+ Z: s2 K1 x# Wfor i = 1 : n
    2 }, s- _9 B) V( b    label = find(T == i);9 b9 P, E% y1 k& f! w! F7 v5 _; d
        label = reshape(label, 1, length(label));0 i' C6 c3 ?# h% e. Y# R. F
        disp(['第',num2str(i),'类有:',num2str(label)]);% E, o4 G1 R  S& ~( L; D. r
    end+ k" ?( C: Y' l3 C1 _9 k! f
        结果如下:9 v! z* s  h9 |& Q

    7 J- i2 f! |) s, k# Z" s: J3 {$ s--------------------- " f, i( v, K( m1 }

    - X* O0 V, [1 C  w; I* D8 z3 U) `/ J8 ^9 ^8 l3 i2 s$ A/ }5 s# e

    : r/ ~  p1 n/ H* c, G: i6 h" `9 s5 o; d" B) F, `

    & I1 ]# F% F, [9 Y
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-11 18:17 , Processed in 0.418097 second(s), 50 queries .

    回顶部