QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1800|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    & J' e' ]4 v( t' e  首先要弄明白分类和聚类的区别:2 I) a; G4 b3 \0 b: u6 ]9 B
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
    3 y# p5 N- W7 {- g8 e+ O% ^) M9 b/ [
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。! F) a0 C+ S, ~0 @! ?( c8 |% ?) e# y

    ( n$ M/ ~+ D! B) ]: J     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    ; T. B# n2 q1 |* ]# H2 `0 ]& P8 f0 x% k- |/ k
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。/ V/ H; M  B/ u/ v2 x% M) a
    ' c: \! \, h( m; o+ u& W6 E
    7 w7 Q: }4 }* V% r. w+ t

    2 S- B3 |# G8 P  p4 A  w7 T/ p     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。+ i: E8 R6 e# P

    9 P1 I5 y8 C* \1 ~3 o* y. n     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
      ~& f' h. b3 I      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。( p2 z. e( X. a$ j+ a" p9 Z

    : k" o: P' ]' y* ?       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。3 |' U4 \& G& H2 R
    --------------------- 1 o' S3 u) y7 T, k& y. o  s1 r
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    0 a0 v/ M% @' W1 u, A4 x/ O) X8 R) _
    ) z2 I; v7 Q4 S- m; r* m3 Q2 ~

    * V' G% {* P- G$ q& A" j: ~     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    / d% E5 i$ N8 N7 U; r# X0 n: Y/ ~6 P, Y
    & ]4 l! n( Z" s" S: }/ H5 i  L/ v6 C
    / q/ Z, t% q7 Q2 |+ f

    . @- m8 J2 ~- j; D& @, f' ~1 g: a
    # V2 \3 x8 t# p) K9 _
    ; b6 ]7 A2 V! m
    / d# V& ~0 p/ g" \     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:7 R, }( ?+ b1 z1 Z% t
    5 t) g  c0 g0 c0 V' C7 v2 ~# j

    ; [5 Z7 D. u6 g% w0 F, V; p& }3 V3 a+ [, G3 y4 w

    0 n2 ?- Y  d: N1 R0 l: R- k* E. H0 O
    / A4 }4 K3 |4 N! j3 }6 v% }! C2 w) j2 ]1 o1 Q* Q
    : \0 `0 Z9 }9 o! }' ~% s& i
         因此,可以得到任意两个销售员的数据距离矩阵:
    # K. [$ {0 C, i# B" Q  \' h7 d% P5 J- C  W9 G+ w
    8 \& Q) k6 v) Y7 G6 `& k. ?) z
    1 [/ ~7 x+ t: A0 s8 o9 z6 T8 d
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;9 l! W) X6 A( A. k( ~& x
    2 h6 A4 S. J+ f9 R. E
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    6 _9 T, z& O, E- R; [Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; / L4 X5 v2 t& b) P% _* @# {
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    # D+ |* A3 |( n- \2 B8 D# Z  q  S0 u9 |7 V/ y8 F, r3 s% l$ X9 e$ c
       代码如下:%% 编程实现clc;clear;close all
    7 B' R1 P$ r, T* `+ mdata = [1,0;1,1;3,2;4,3;2,5];%原始数据( d* v' s& i  o- p- i
    [m, ~] = size(data);
    & e  h( H/ B$ ^; \: v+ ^d = mandist(data');%求任意两组数据的距离/ U; O, L7 C( P5 B6 h* _1 N0 X  K! X
    d = tril(d);%取下三角区域数据1 [# ?: a2 l( O3 ]6 _. X; i
    nd = nonzeros(d);%去除0元素
    6 c% L, p/ G9 |- o  _; N! Ind = unique(nd);%去除重复元素/ O" G9 w' C& g% V. X% f
    for i = 1 : m-1& \" ?8 V. I  \# j
         nd_min = min(nd);# t5 B+ m) a: E9 S. k: B* b9 T" X
         [row, col] = find(d == nd_min);  ?$ P! B* q+ I, Q6 r' n
         label = union(row,col);%提取相似的类别7 z: F3 l8 ^: B1 r, u" U& O
         label = reshape(label, 1, length(label));%将类别标签转化成行向量: r" x6 x8 P$ ]$ R3 A' H
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    : y  K( s. o+ m0 _# a     nd(nd == nd_min) = [];%删除已归类的距离6 z: p: s: c& Q: L; G6 `: ]
         if isempty(nd)%如果没有可分的类就停止% x. c8 @: C) |
             break
    0 X! K8 m) g3 L1 u$ ~+ B' O2 c2 W8 s     end. m& \" |' }  G/ i! f/ X
    end/ q+ N( N4 ]& c. ]; s0 C6 I# v
    %% 工具箱实现$ b, D. ~1 q$ L8 A
    clc;clear;close all0 f- g3 [1 \* U/ {. D& W: t& L
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据1 F9 p5 j) p% G% u  Z0 {$ |
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离) z% H) n& d  C( o% C8 {
    yc = squareform(y);%将距离转化成对称方阵
    9 D- h' D  m6 P1 x$ m" Yz = linkage(y);%生成聚类树
    5 X. o& G/ f* o1 {$ u2 d# W* r$ M[h, t] = dendrogram(z);%画出聚类树( J3 v. ?2 G' |* B6 a$ `8 O8 v
    n = 3;%最终需要聚成多少类
    & ~- |# u" Y& r% ]& c: sT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    . {  H+ V$ Y) I! Bfor i = 1 : n
    ' K4 S; U3 b" @    label = find(T == i);1 e6 [4 p# a4 i. I- }  W$ i4 ^
        label = reshape(label, 1, length(label));
    7 w1 ^1 M# l- e5 g' S( i    disp(['第',num2str(i),'类有:',num2str(label)]);  Y* h5 j* H7 [# f
    end+ U6 _& L, a+ f, A9 u( `% m
        结果如下:! K+ `: a2 ?: ]7 M$ o. M

    - M) Q. W" b3 \1 ^4 Y! a---------------------
    - v2 _' B/ n/ t9 W# ?
    ; w: Q5 r/ J( U# j+ t# c  I% S
    + A6 B4 z8 ?; W1 [, Z# w' b6 E4 D; M
    0 ?- i( x# n6 `
    / H/ `$ T, p$ K" f/ Z5 z6 f2 h$ T0 A; c4 L. P+ s% D9 w
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-5 04:57 , Processed in 1.258106 second(s), 50 queries .

    回顶部