QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1972|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    ) G0 ]4 Y  ]' P- F$ _* ]9 A/ U  首先要弄明白分类和聚类的区别:8 p3 {. a6 A7 y
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。. S; i1 N; P9 Z, I  H+ @; c4 W3 o

    # d0 @+ R" ]: H* r      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    7 N3 D6 Y5 d- B) J. k$ @& {6 Q/ i3 p2 N5 m4 E1 L0 u) X) Z, f
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    1 B" B5 X% |  M( J: ~+ b6 f! t% n0 B) S" _; C
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。4 I$ S& G: q, [

    + ?7 }8 y- N" t- u) b
    / W! k& i* ^5 Y$ E6 q  B4 U$ Y* i: H% S! Z* P& a9 Q& {/ {$ v4 q
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。' l1 S. p' n1 p1 E

    : e3 v3 u- A" {7 @     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    . ^8 `; [2 @2 E      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
      \. m6 d* P1 K# \0 r4 y
    7 e) b4 C6 s% t4 d. z7 b       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    1 j# _; a$ \7 g# s8 w0 F. A* ?---------------------
    $ |% s+ u0 X# V6 g) ?+ w$ W$ K     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    $ D% E% \$ ]* n4 ~+ V. J: x' u3 N  g% a" h2 z9 n

    . U3 \5 F3 C  R4 p4 c# p
    # f; H. [% o9 {  x- Y5 y     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:- y' J7 F0 y. p1 E0 b+ Q( j5 r

    ) j5 {$ m) ~( A3 a
    ' i9 @' p) L4 F- q. }/ G( y5 G1 a! W2 ~- ]. c
    2 K8 S( c2 Q5 ?( d. N
    - o9 i% n) n# a3 P6 V# n

    + c6 M2 e8 P" I: L# @; U. ^
    4 t' ?* b8 z# V1 c4 [     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
      _: K- u7 D0 ?. C) m1 v# u9 Z

    5 C6 f- Y9 x- L. @+ E; R& M
    4 a5 z2 M- |2 V% p; ~; S
    - s: s  ]1 e( @8 g$ F
    - \8 M% O4 t( @1 B: J7 B4 m9 G  G  L

    8 ^4 \+ D# `/ J) N6 Z; x/ O  N" _     因此,可以得到任意两个销售员的数据距离矩阵:
    % ~) I" b1 V. g" [+ e9 ]1 r- l- P$ J

    ( H( _' g  w$ ^$ E3 N5 }! e! e6 l0 Q
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;) T/ S( ]5 T7 A' q3 a' W/ t1 ^( \& e' _
    . s( I5 k$ j' k
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;& K# N+ O% x* R) w1 ^
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    1 s' y! d  J7 N9 k% J% U; l" D6 LStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    $ |/ U* Y( L$ S% k5 O4 I" O! i0 O; n2 s4 |6 D3 W7 q
       代码如下:%% 编程实现clc;clear;close all
    8 t$ M% E: q9 @9 c+ y# edata = [1,0;1,1;3,2;4,3;2,5];%原始数据
    " v0 E( ~0 [# d: P: M' B& e[m, ~] = size(data);# d* q" A( ?' p7 o& V7 D$ c' j/ W
    d = mandist(data');%求任意两组数据的距离
    - j! r4 {6 z; ~2 ~9 ^0 zd = tril(d);%取下三角区域数据5 D; h# e8 c, R" X; Z* f
    nd = nonzeros(d);%去除0元素! j$ n0 Q) e& h5 c
    nd = unique(nd);%去除重复元素' X2 I) S& W) G2 O- @/ W6 {) i
    for i = 1 : m-1
    0 Z% Z* D1 v2 r     nd_min = min(nd);5 k! _6 i, j0 K% z
         [row, col] = find(d == nd_min);
    4 U0 D# [+ d; Z  i% d: L2 i     label = union(row,col);%提取相似的类别" o! C" |; P! C: ]& U8 v
         label = reshape(label, 1, length(label));%将类别标签转化成行向量) o4 d, a5 X" M2 d+ h/ e
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);  E% x* V# G* b7 F7 r
         nd(nd == nd_min) = [];%删除已归类的距离" G1 k1 J" E3 K- j, s8 F0 o
         if isempty(nd)%如果没有可分的类就停止
    % O( u( w# n# K+ z  y. l         break4 O. O, [& \3 [+ S$ p
         end% Y( a/ |( l, s! a& G* {
    end7 ^% N/ x& t' S$ H. E* w* R, a2 v
    %% 工具箱实现
    & f3 a/ A2 E3 C" k0 Y# ^clc;clear;close all2 B; z  C. e1 [
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据( m6 t' @( Q/ I1 l2 T; ?/ V
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离
    # c& z% P- ~: |" Nyc = squareform(y);%将距离转化成对称方阵
    ! w' L7 Y8 g7 @z = linkage(y);%生成聚类树) D2 o  A8 y' R( \0 R
    [h, t] = dendrogram(z);%画出聚类树
    % s. _% ~. R7 N/ ln = 3;%最终需要聚成多少类
    ! o1 Z0 r; Q3 d$ `+ _5 e) u% dT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    8 R5 s4 T" i9 S, ]/ O  r; t' W: a* cfor i = 1 : n
    4 I- z% T! S0 }# B; Z' e$ x    label = find(T == i);
    : D5 H+ ^6 Q9 o8 _( H    label = reshape(label, 1, length(label));& _1 P9 ~8 I1 |$ s: `3 {7 K8 ?% y3 h
        disp(['第',num2str(i),'类有:',num2str(label)]);* I/ p7 V9 L& `* f
    end
    - ]7 ~5 J0 y+ x/ B8 F    结果如下:
    9 B. j% Y; k+ j
    " p# |+ f7 Q( M+ C--------------------- * X$ f7 l/ w5 q9 J0 e  q, R' B* b
    9 _, ?1 X2 R) E4 _
    3 S9 ?" `+ e3 Q- l& Z4 H$ X7 J, R) {

    ' [/ i6 D# x* K+ Z* \1 @
    9 L9 x: x5 \* }* `
    + C" E* b, N( h
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-12-23 20:31 , Processed in 1.932575 second(s), 50 queries .

    回顶部