QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2002|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    ( l0 x# b' j5 W9 l5 y0 Z4 C$ u5 L  首先要弄明白分类和聚类的区别:% d: R) S4 O; i3 ]1 l$ f0 j
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
    0 u$ Q) D' G+ I0 g1 Z  j! V- @1 H5 v( n8 a+ y, D8 _% t0 ]' a1 t
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。/ X3 s2 z8 \- a! m
    & U1 \' _4 U% V$ J& h
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。" \9 K' U; J' P% h

    ; I9 u0 M: Y% \6 o! i* q* ?     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    3 w' Y5 k& A8 w* M+ Q; ?3 k" Q3 y6 q8 m, O1 x
    ) T$ d; G+ g) h* N8 I
    5 ]' @  x$ g7 g. |* }6 `
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。- j) F  n! @' s

    9 |- L8 L, q3 }! P     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    0 A! ~' H' y4 ]' k* p: k      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。& a9 \2 [4 ]2 S/ t9 Q

    " G7 z5 `/ Q1 p/ Q+ b       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。: C- I4 \4 e6 a) `' J  a
    --------------------- ' `! t9 x- |3 V" u
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:; i) i. ^5 G5 h! M+ \
    % i2 a$ G9 f+ ^. D5 Q/ @6 W

    ' P( C0 K' b3 Y
    5 D% O4 o% K) n4 `  e     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    ! ^+ v% X' E/ X5 M/ F& t- @# @" {5 @3 E% Z# x- I8 D% M; T

    % V; t- u5 F9 G* X; B( x- m" s' `0 S
    # \4 e1 M3 B( ^
    1 G) w2 B+ e# k+ q+ {
    5 E! L( k/ M& j4 Q) u4 A  Y+ w% V
    2 D8 O( K. W* b4 _. S
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:1 U' C5 c" n! e0 L& H
    , |# t, l1 `" \1 C# `7 }
    8 ~$ i' D' _6 ?/ t

    1 f) Q9 G: ^9 p" m. ]& Z4 V4 \; Z1 K  \6 j, ?; k8 ]  g

    ) s; f# D' }" h: |6 F0 ], j$ ~. n1 }1 U7 }; n8 [3 j* f

    ; X1 `' R. {+ `( g# g. ]     因此,可以得到任意两个销售员的数据距离矩阵:5 |4 n# N* h1 g+ Y" S, ^0 w$ I+ \

    % M' l) q; }% E3 G# I* }! x
    . {1 S0 w6 H3 j$ Z/ I2 @" s* K7 U+ W5 Y0 R+ H& b5 h
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;+ ]  M9 C& l+ R, o5 q+ F; O- h& q
    6 p, u2 Q* B9 r( T# \. l4 D
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;; H" u& X) |% B/ {
    Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; 2 J; W+ i' w8 X% s0 K  @
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    + L* |5 _6 r3 r) |% l( a  g/ P7 g+ p1 ]+ d
       代码如下:%% 编程实现clc;clear;close all
    & b! H% E, ~8 l5 L( \6 ndata = [1,0;1,1;3,2;4,3;2,5];%原始数据; ]6 P5 ^# U$ p. k
    [m, ~] = size(data);
    ( i7 X; ^$ L7 t6 Q0 vd = mandist(data');%求任意两组数据的距离. Y3 H& ^/ t4 `- ]+ q
    d = tril(d);%取下三角区域数据
    6 W4 E- q# W, j7 Ond = nonzeros(d);%去除0元素  K, I5 `; ?, ~
    nd = unique(nd);%去除重复元素" S# T/ H- @* r) r7 \
    for i = 1 : m-1
    1 b0 D' v+ b# D9 P& y- R! }0 t     nd_min = min(nd);
    ) S% h' F4 A- H3 L) r     [row, col] = find(d == nd_min);/ k& e, z( E9 m  f! Z
         label = union(row,col);%提取相似的类别
    $ h& Z3 y2 u: s. s     label = reshape(label, 1, length(label));%将类别标签转化成行向量
    ' [6 I- t6 y7 ^     disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);2 p# t) D  m6 [, k# a
         nd(nd == nd_min) = [];%删除已归类的距离( s2 ^. v& z; m: B$ L
         if isempty(nd)%如果没有可分的类就停止
    + j# O; n( j# g" |; {- x1 s, L, w# G         break
    6 }6 U; Z4 Y6 G* E     end! m& i  l2 r4 O' z6 f% e
    end
    $ R' c7 w/ k+ U: z3 _& f% b+ j2 c: c%% 工具箱实现5 F+ N( W5 y2 ^0 x2 M% n
    clc;clear;close all
    : |/ P. W6 q! H1 k! _* u6 X5 {data = [1,0;1,1;3,2;4,3;2,5];%原始数据: s/ P: H- s: d5 w  \
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离  s  m4 V8 ]) ~9 t8 T0 o% L
    yc = squareform(y);%将距离转化成对称方阵
    7 v; d! ^$ t& hz = linkage(y);%生成聚类树6 L. `9 n5 y3 z0 H, A
    [h, t] = dendrogram(z);%画出聚类树9 f0 @5 [* D( ]6 _7 q
    n = 3;%最终需要聚成多少类9 ~# A7 k5 i& c5 l6 V2 d' U! I' F
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签, j9 r- p0 i" V& x
    for i = 1 : n" \' c; X- ^  @
        label = find(T == i);* r1 W; A" M$ \& u" S/ A
        label = reshape(label, 1, length(label));
    ! m1 F, q: q& J' e- e% ]8 k/ _    disp(['第',num2str(i),'类有:',num2str(label)]);
    ' N( U/ w. }) Q2 `* Q. Tend- K# D* N2 F* Q2 T( ~% O% E
        结果如下:# _7 m& p3 j- R) c* J: L
    5 m2 q4 {+ |+ |+ b$ \# r
    --------------------- 8 r% Z5 S8 p5 I5 s
    7 s' m1 f4 Q9 {

    & f( B: a1 G# U
    * {% ~. R% {1 j: j1 m% y& D# y  p5 O: G( d& X3 u1 ?! X
    8 A8 |: {* P. Q9 \! T) H
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 05:03 , Processed in 0.260303 second(s), 51 queries .

    回顶部