QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2006|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |正序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    8 Y# u& Y: a/ ]8 D' Z  首先要弄明白分类和聚类的区别:% A! d6 ?* d+ @9 S* A. m8 s/ i2 {3 E# F
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。+ m1 @; J$ Q* b" a
    # ?/ @3 [( A& q8 P7 h4 b4 g
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    6 S) I$ N# [8 y) f- ^3 }" ^% X- }1 Z
    3 K7 n  t" p4 U9 Z& N+ |     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。: J  f6 ]/ O7 H4 D0 J
    , c2 s$ n; e9 D2 e3 P5 ?1 u
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。( q7 {! ~% E% t& z

    ) I  {' W: g$ ^
    ; d$ e; ~, H( K  d& h3 w; J; U+ P
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    8 |) f: g1 l9 h. i- m' j) v9 G  z
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    8 o, I& Z# ^2 {  z# k      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。# m. P4 a4 \( w0 N, `, O' a2 y( d8 z

    * r0 |! ^3 x% K# R       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。& L9 Y7 @; p4 d4 w
    ---------------------
    , x" \7 g( Q1 h- O( z     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:( l0 \0 V0 l2 E$ h0 ^/ T: h
    5 O9 u& C+ U9 s8 }  f
    * U9 d2 Z0 K$ F& z4 M# Z- G

    3 E: p$ {2 J5 d0 _' j( \9 w     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    2 [, W; V1 T4 ~! Z1 Y5 L
    & N7 r8 Q# J) H; I
      V* {! D1 y) P" u7 O/ j9 U# w5 t8 N5 ]' h9 H" `
    . I: g" {: s, e6 s1 Q' a4 H

    : R% b! l+ h9 f/ f9 n' y) C' h4 l% v9 P: u
    # I% O) e7 }- V$ w
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:3 h! h- I& h7 J. W- `8 K
    1 ~; K2 c: C" _7 q
    " M+ `! {# L2 i: m! U

    7 K4 U! K2 F1 U0 i% d
    : W+ e1 }- T& q+ e; N' {/ @3 ~
    % f& u6 h6 f7 Q! O$ u5 N: x. s8 a7 W1 `) A! f1 ^
    ( T" U4 c6 w. l# S
         因此,可以得到任意两个销售员的数据距离矩阵:" [; ]3 j7 {7 S& F

    ' C& O0 {% P2 P7 ~: ~6 i7 `4 p% S& ^+ Q* E$ n/ A
    ! g) M' M2 h$ t3 R) L
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;5 i6 K; O. s. W5 t' i  R0 L$ E
    / F: F6 I/ C+ M
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    # |$ c9 |2 J: c: zStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; : @: E8 x6 e: G. v, W; B
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。2 S  ]0 \1 x( O$ H. L7 |+ T" l
    / A/ [8 b, W, a
       代码如下:%% 编程实现clc;clear;close all' b2 d6 x; G/ s8 m5 p; V
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    * W8 K3 n& E9 Y, y* E[m, ~] = size(data);
    5 w6 Q7 a9 t2 |# ^, k" t8 O' Zd = mandist(data');%求任意两组数据的距离
    ; o" H" G2 D% K+ m& z+ Ud = tril(d);%取下三角区域数据
    : l) v" Y, {& u" M8 _7 G/ \nd = nonzeros(d);%去除0元素
    4 A- o5 ]3 p" `) z; K( m& gnd = unique(nd);%去除重复元素' n) w6 i" N, R
    for i = 1 : m-1' `- @" U+ {" ~8 z
         nd_min = min(nd);
    7 S! V2 u2 U7 r9 A4 o     [row, col] = find(d == nd_min);4 y$ I5 ~1 P* R. E" ?
         label = union(row,col);%提取相似的类别
    * X' D# `# q: R( }/ r* p     label = reshape(label, 1, length(label));%将类别标签转化成行向量% _+ p3 d$ Y* ~: T, ^  U: c5 g
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    . F* q2 Y* C; ?3 W* a     nd(nd == nd_min) = [];%删除已归类的距离7 }# a  b9 q4 M+ T# O9 `$ f$ x
         if isempty(nd)%如果没有可分的类就停止5 K6 P- H) o( f7 ~/ |& D. T
             break
    5 |, i# O; ?$ M# N     end. y6 N/ s' D8 r; _- m0 O* }
    end' J0 o! I  c/ X' _$ G
    %% 工具箱实现. R, x' p0 a0 k: W; {
    clc;clear;close all
    - |+ E+ @6 l! rdata = [1,0;1,1;3,2;4,3;2,5];%原始数据
    : M, Z- x# z3 \% l! U) \! Fy = pdist(data,'cityblock');%计算任意两样本的绝对值距离& l5 h4 V$ j1 }" R: x
    yc = squareform(y);%将距离转化成对称方阵& B" K, O" G" i5 [$ U1 }# D
    z = linkage(y);%生成聚类树1 `- ]8 Y6 Q1 C1 t: n
    [h, t] = dendrogram(z);%画出聚类树" a& k* u& d+ J
    n = 3;%最终需要聚成多少类
    . D5 R; H. i7 h) z. r$ d" TT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    % D, q6 I1 K7 @& U# E8 L' Ifor i = 1 : n
    $ E7 d$ D2 j. C4 H7 X' \0 e4 ^    label = find(T == i);
    " Z% E) A$ l+ Y1 j7 j4 D    label = reshape(label, 1, length(label));5 h- h5 {0 k- R3 ~8 _( q, [9 u
        disp(['第',num2str(i),'类有:',num2str(label)]);
    , N) K; d) W5 u' c$ i8 Fend  K; D/ |  w6 `$ ^- N& Y, f
        结果如下:3 L9 N$ o( a: u# ^" c+ Q8 H' h% S
    6 X; V  {0 B* e) v
    --------------------- 9 j. F, v& q& a, o

    2 q- C) F0 E. |  D9 e/ N: K( u# H3 W, e6 I

    , @! k/ ]* T# U% s
    2 j8 a& W6 t7 e& `" j
    $ c9 r: r9 `" K, [2 t0 `
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 21:46 , Processed in 0.606594 second(s), 51 queries .

    回顶部