QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1809|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)5 b6 {7 t/ t( ]2 I* u: x; O
      首先要弄明白分类和聚类的区别:& U/ n6 y+ c9 o0 e; n0 f  z
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
    7 h$ V8 @5 U  o6 E  V5 _9 i7 @, P  N6 _5 }8 r& e
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。3 Y( d4 T+ Z" |: Q5 m

    ; K3 q- s) S% L4 B     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。9 r( r. K$ @3 I4 o) C$ B

    * g# R5 k- J5 C; D9 U! V     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。1 Y0 N# ~3 o% l( a6 i0 i+ j
    4 y- D% d3 e! @! z7 K
    , }- y$ k: O! s

    $ T  x" s& N/ ^4 M2 E1 A2 S     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    . d3 q6 B2 T7 ?7 Q: {* f# o% `$ E/ m% q
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止..." C* e$ n( G- f& m
          当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。8 I2 i* N2 J! R1 n

    % ?( i) x7 o1 H4 J; N" a: M4 C8 K( k       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    % w* Q* M5 D( t+ q0 N" j--------------------- 2 T' y5 ]( M1 q6 J5 L3 K
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:+ {% ^. E1 H2 n* B7 ^7 j+ e* J& q4 K: N
    6 h+ s( y9 m- x; r
    ) U3 _  e8 ]" q7 h; S1 ]
    7 n: ~' }- o0 J, n8 K: k* s
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    4 L* c$ ^" T9 J5 x* o+ H; a, I. r6 w# b1 H3 }
    1 A# g3 Z8 F. T& o) ]7 p+ D% k: G/ p7 T) e

    9 z6 e9 J; M4 ]7 B0 [# x' ?- M3 n0 y3 ]1 p9 d6 X8 m  h( R3 n& z; m

    8 p$ X  h% q9 f& y* v& t, q; Y& f+ |0 e/ B) i: g1 O* J, a/ T
    6 Q' A% f% V9 m" V
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    ( v3 w9 ]3 l# ^' ?- `4 W+ R. c" A4 ^" i1 B; x( V

    * l1 w' ?- _& K5 I; K  Y( w4 V! ~. B) c" N2 a

    ( L/ E1 z. ]4 ?/ [' L! Y) Q( T+ f5 \
    5 F$ Q0 Y, k9 o- S# W
    & k* {* Z& k# M" o, Q
         因此,可以得到任意两个销售员的数据距离矩阵:; W. H7 e" i5 _8 `; I1 W; H( d
    2 M% ]. r+ w8 {! Q
    2 I+ X; U* a* O- ^1 W
    8 z8 Q$ \& ]7 P2 A: n9 m
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;: }2 }! S( L- f  k, X2 P

    $ Y# E5 C2 K( i& ~6 K% QStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;5 m8 F$ j1 }: Q
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; 7 y7 I% Z) D% i1 k2 B; g
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    . [& n) X! b) _: [& R+ O# X6 ]( J0 M# d, w0 Y( ~- G: |  a) m
       代码如下:%% 编程实现clc;clear;close all
    8 k1 ^! a! v! l* Y1 [2 S$ o9 Fdata = [1,0;1,1;3,2;4,3;2,5];%原始数据4 T; D1 ]* @' J! i$ {
    [m, ~] = size(data);
    ; |6 x: Y. _# p/ ^8 [/ G+ [d = mandist(data');%求任意两组数据的距离
    - ?) q) }% k/ b' j4 ud = tril(d);%取下三角区域数据8 f1 ^* f. b0 I, I0 L3 r4 B
    nd = nonzeros(d);%去除0元素. W$ c- G) H6 G9 X( A/ P$ t, }
    nd = unique(nd);%去除重复元素
    7 U- h2 N" Y: n1 @7 V for i = 1 : m-12 G2 x. N% i5 a' N% P# u) Y1 |; B
         nd_min = min(nd);
    * E. n9 K7 b( r# `6 [: d     [row, col] = find(d == nd_min);
    " a( M3 I* r5 c3 Y  M( \: H     label = union(row,col);%提取相似的类别$ `; Y) m  [! R6 X
         label = reshape(label, 1, length(label));%将类别标签转化成行向量2 K& d! I* ~; v. F+ @; K# N
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);8 @2 a& f, q0 \# f! X$ ^( b
         nd(nd == nd_min) = [];%删除已归类的距离# k- q, \- F: t' z" d" H$ f# T# Z
         if isempty(nd)%如果没有可分的类就停止
    6 }3 K. G* T! N1 i         break
    : j  w! H; Z0 {- z, L' W     end3 z* t- a/ p. u/ o8 U
    end
    / g/ d" w9 u$ E, E$ Z%% 工具箱实现
    3 @2 B/ }0 |. fclc;clear;close all8 k) c- E9 _% ?7 Y3 X
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据0 y2 v& M. p* o* z+ c  _5 c3 U3 R
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离
    " _% P4 ^# x9 b5 t) Yyc = squareform(y);%将距离转化成对称方阵
    ( K5 E! m, J5 U1 n; jz = linkage(y);%生成聚类树9 N( z' T& i* L7 [3 Z  T* P2 ^
    [h, t] = dendrogram(z);%画出聚类树
    1 }1 R) l+ ]; b4 O4 U. v/ w$ n  G2 ?n = 3;%最终需要聚成多少类
    4 P0 v" \# A. NT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签& ]! B5 s" V( [% }' V4 O, t! x
    for i = 1 : n1 S' ^5 I3 z- ?- q6 o
        label = find(T == i);8 T0 X- n2 I% C3 L# i4 D. l
        label = reshape(label, 1, length(label));! ]1 {7 p4 |* d! I3 R6 _
        disp(['第',num2str(i),'类有:',num2str(label)]);
    0 B! a( O$ j: n1 Q: Q5 V; i& F) Eend0 Y( S6 e: K/ ~" w+ c( J! R+ S
        结果如下:
    + U* Q% l+ q4 d7 a: R' T8 r3 d6 s6 C9 X. S
    ---------------------
    & }& V2 j! x1 u/ Y, G: r3 v+ J) I* n) l7 _" F/ T

    ; ^) o- t3 Q) d' u- e
    ; u) `) A2 |% A, e" Y" T1 n8 |+ Z4 Y/ K! ^) c" G5 t; o
    * a% g; |4 [% |; F* C0 L4 V* {
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-9 19:06 , Processed in 0.422103 second(s), 50 queries .

    回顶部