QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2011|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)7 o2 \! g3 ?1 ]4 {  b. I
      首先要弄明白分类和聚类的区别:
    8 U" w0 k- d2 z8 `  g$ D) P     分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。7 V0 y* o+ [: Q& j$ [4 h4 A

    8 h$ V8 p6 _; ?( X      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    0 w3 k/ l8 B& g3 y7 A& k0 h' l" f& H  ]2 y' S$ b
         聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。6 w$ y( h7 R3 U

    4 F: H0 x9 k& b7 E  k1 u     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。1 G3 x/ c! c* [
    ( p2 T0 ^! b6 N6 ?, P
    2 E' f! [8 U" \5 q3 O

    ( _! b& e* N; F; V     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。# t! y4 [; v3 J2 v+ ?$ `2 g" P
    % O. C+ n0 }* u. \
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    3 n5 J  b3 K8 l      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    ( v, c) j' G( E8 P7 z$ \& i! D' t- t- w/ s5 g5 ^) }% E
           接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    ! k' r! x% L! }+ s0 ]--------------------- & \" w9 V* x, i
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    3 s; s& `0 P2 f2 _
    / e# h) z+ l- `: t8 ^2 H# ?, x( H7 I2 i5 `
    ! i- n/ k" S$ D3 g% W
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    6 V  }0 u; B2 Z% n2 P  a, ^; W- G9 w  F5 a4 k! A3 U) r8 g

    1 y6 |, I2 z, `+ Z2 T5 h$ K( ^& L( Z9 ^. f' j2 I
    ) [6 H% q# X- {; a, [
    0 U7 b2 G; ]  {1 C

    , {& f( J: d; }! S0 x! z
    $ W: w* g& Q" {" ?! V     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    . x7 a9 E1 p; e1 ]+ D0 }
    . b5 A" {% `7 M" J. k* ~0 y
    ' g8 T# H' E8 }% K4 n5 K. V3 m7 U# @
    3 s& z0 c6 G9 g

    & t+ M0 ?1 u6 J
    $ w1 F3 l( ^& W' |  z
    / t0 m0 i" K9 D) K     因此,可以得到任意两个销售员的数据距离矩阵:
    1 `" D) O. `- E6 |+ m6 G8 n5 U0 Z' k/ M
    8 u0 j6 P  F/ z) d5 ^- }* @& u
    1 E7 a: v& V6 v4 {$ T. W
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
    4 c+ h, N& l0 @) e4 [$ f
    3 ?1 d0 B/ ^$ Z- ?' eStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    : H3 ~! |. S7 ZStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; ' e& @9 D0 n# F8 ^
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    : p3 b3 A$ M3 l( O$ G+ x! _& O) X' {0 Q/ n) K
       代码如下:%% 编程实现clc;clear;close all
    + x& e/ u) l4 _' @data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    # g- B: M3 S" Y6 {5 r: U[m, ~] = size(data);
    5 h6 `2 N9 d# |5 ^( Y8 yd = mandist(data');%求任意两组数据的距离
    - h8 j$ m5 ?1 ?% m9 d% sd = tril(d);%取下三角区域数据
    # d% D4 K9 x* Ond = nonzeros(d);%去除0元素+ |: m; E3 h; p8 q
    nd = unique(nd);%去除重复元素
    ; z5 ]' Z, X9 X; M8 e; Y/ n6 @! y' C# O for i = 1 : m-1
    2 _$ c+ z7 Q! {% h) C     nd_min = min(nd);# p* ^' \8 g$ I% c" [! r
         [row, col] = find(d == nd_min);* p; A1 j7 D0 K  k: {1 k- k$ j  e
         label = union(row,col);%提取相似的类别& p" L: ^2 v( N" Y+ ]( I; I4 U
         label = reshape(label, 1, length(label));%将类别标签转化成行向量. y0 p5 v$ I4 ?/ g* {7 t5 s1 T; Q
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);! X$ l0 e' p& x9 X
         nd(nd == nd_min) = [];%删除已归类的距离. m( m4 \7 |4 q
         if isempty(nd)%如果没有可分的类就停止
    2 n: @; e' o6 ^& f1 Z) B3 |* [         break! ^. N. p+ c0 V% C9 y. t
         end
      `; `( O" x. X* N/ f7 u end
    6 t1 w* m: o# h* v$ n$ E7 a+ l! Y0 \%% 工具箱实现
    2 K1 J: f: e' k/ f0 K, l% G& \clc;clear;close all# V0 R; Y' r: p4 C
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    + n% Y3 f4 n. O+ Q* ~2 S" b. py = pdist(data,'cityblock');%计算任意两样本的绝对值距离3 k: x$ m' |4 T
    yc = squareform(y);%将距离转化成对称方阵# B2 i  w! k! T2 F
    z = linkage(y);%生成聚类树5 p8 s1 U3 R9 s! j
    [h, t] = dendrogram(z);%画出聚类树
    9 P0 [+ o/ E1 L+ X5 c5 tn = 3;%最终需要聚成多少类2 x) Y4 d! G, s
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签' Q5 H9 g# y" y7 H* _  |
    for i = 1 : n
    2 x1 u9 N: H- Z/ C    label = find(T == i);6 e% b. `- Y8 \3 m, K5 c
        label = reshape(label, 1, length(label));' p& Y& |- M" K- O/ K. L) D: s
        disp(['第',num2str(i),'类有:',num2str(label)]);
    ! e$ @3 R7 i; u, F2 fend2 i+ V' z7 n: F7 b  V
        结果如下:
    ; @$ ?5 q6 o9 B! G: G+ \
    % G' u. o; }8 Z  B1 y3 P2 ]--------------------- & t" f( T6 }$ X3 f- L! s/ x

      s' _4 m1 L6 _! ]$ L9 t
    4 }, i% i5 n4 w* j& W( r( I+ R5 C) k6 d+ i. e

    , ?& u/ V6 O6 F: U: T
    ( W2 v# A+ }9 s" E- l& v* j6 B" a% V
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 06:13 , Processed in 0.437715 second(s), 51 queries .

    回顶部