QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1914|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    * V' g* N3 U8 ]4 g3 I' i  首先要弄明白分类和聚类的区别:
    8 k4 Z, v8 z/ p1 u0 p, h     分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。9 O& H- a5 ~4 V6 L
    9 N$ V( ]# G) r- d+ C
          比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。* v* f5 W) {& j% V

    : v. s7 w6 {' u* ?, z: ^  j     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    # T% y- N$ K+ t# w% f
    ! |, w9 H# n8 D# ]" l     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    2 ^( r; U4 U' b7 B
    ! p: M5 Z( k/ I- |7 G! r* w
    ( q! R! Q: {/ W. `+ H- |; l, h; e/ j3 ]7 W3 L
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。4 l! g( Q4 N6 _. f
    5 m, v1 c3 e( `% f+ l8 o( f
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    . U" F$ B1 @1 f8 i      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    & T4 a+ v/ ^6 l3 Z
    " r" M3 p) i* p/ w       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
    / M4 e6 Q" _. r4 E! Q+ |---------------------
    - m! B; d6 e" N. Q     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
    / j& ?- v4 V* t" O0 q
    " c! P+ s! i7 O/ c) H
    + G9 E3 f7 Q8 c! u9 _$ x% K" n' p
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
    / @& _5 _. E7 F0 o6 [
    % E+ V, _3 ~6 y5 @5 z
    % i; d/ m2 ^5 l, S$ x9 O  s9 m& O% @5 v

    6 J4 y0 {3 C' i6 J& f
    5 v4 a: D. N. o1 W
    - I7 q- E5 l3 h; y2 a. c. @5 m& I6 h- h1 g+ ^& m) l, w
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:& Q. O2 Q7 a( M

    ; s- ~) K: d# c" O6 b& r, K" z9 b) h
    . M9 o) G0 o8 ?7 m1 B
    * D" X+ z* }! F; I

    2 H" t) Z* [8 c& h1 \  |4 W8 {" l) D+ S- J4 @3 O4 G
    $ A! o" b. P, F9 v/ O, p
         因此,可以得到任意两个销售员的数据距离矩阵:
    % P0 e5 u. |% R3 p2 p$ u% J, E4 T# o2 i' G$ h) U

    ' y/ u$ J9 t1 {3 M+ N2 G/ _+ o2 U% @+ w0 z
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;8 u/ C4 k1 c# R" Q; |
    0 o: I  u7 `5 u1 ^" O
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    , `# d# d! e. TStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    9 s# e& b- q2 X+ V+ zStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    # T5 w9 |' n- L# N/ @) a: ~
    + K# q" `- i1 w0 x   代码如下:%% 编程实现clc;clear;close all6 k5 p$ @4 u* G0 M6 E7 N1 C$ L
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    2 v# P8 H, g4 N, _5 d, j0 \[m, ~] = size(data);
    1 n3 `$ A$ x) Gd = mandist(data');%求任意两组数据的距离
    0 Z. X9 D6 \+ M. fd = tril(d);%取下三角区域数据
    - h$ C. ?; R4 P4 n2 ~) A5 Gnd = nonzeros(d);%去除0元素
    - g6 i& E4 i1 M9 I1 H, k/ ~# T0 \' Rnd = unique(nd);%去除重复元素" |" ^; G% D8 q. Y0 {
    for i = 1 : m-1
    8 K. r+ r8 y% O7 }6 S" }     nd_min = min(nd);) [; q2 h, N! k2 S, O
         [row, col] = find(d == nd_min);
    4 s. [# w7 W) y# h! j% ~     label = union(row,col);%提取相似的类别
    ( i( F- ?5 t2 P" a7 O+ a     label = reshape(label, 1, length(label));%将类别标签转化成行向量$ C5 X, k6 X1 p' R
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    2 O+ T1 W) ?5 z) Z' u8 t     nd(nd == nd_min) = [];%删除已归类的距离! {9 N+ P& W# S3 P' W* {
         if isempty(nd)%如果没有可分的类就停止
    / t9 y! ^& t7 v7 @$ ?) S         break! e7 @8 n( N# f% Q4 G0 |
         end
    ( S  U( x" n; C- ]7 C6 q end9 @. ^, \! r. n  b- R
    %% 工具箱实现/ F: ^* @- W7 {+ u! x3 J
    clc;clear;close all, v' \+ M) g+ p: _' }6 o( Z
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    6 G: q0 a; y8 m- v+ X2 x( R% ]y = pdist(data,'cityblock');%计算任意两样本的绝对值距离# e- {/ q5 L' N  y! n7 b4 c
    yc = squareform(y);%将距离转化成对称方阵
    * h* g" D) T- W; Wz = linkage(y);%生成聚类树
    & `5 ?2 g; o' i7 m' ][h, t] = dendrogram(z);%画出聚类树! j6 p/ R4 @! {1 T9 a
    n = 3;%最终需要聚成多少类
    / [, [: k! R9 D5 R8 h5 a, UT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    ; E4 W: {# p# Q" {0 ~5 ~for i = 1 : n
    9 i2 b" `! d$ ^- @% Z. e    label = find(T == i);
    * k4 ?* L& M7 [4 n9 p( c    label = reshape(label, 1, length(label));
    ; `: E8 K! {6 M3 E% l0 V/ x8 e    disp(['第',num2str(i),'类有:',num2str(label)]);  ]4 F0 G% L, N: V
    end7 Y9 Z2 V  a4 L+ I
        结果如下:2 j. F2 Q# X$ _% O6 w

    # Y  t+ W+ j4 x' q( {7 [--------------------- * w" ~( z* u8 i0 I6 @2 D5 ?
    " Q& W$ q6 Y- J7 d  X

    8 b7 q+ Z5 o: v! x# R6 D& q- b2 I
    . X+ l# B$ y1 u+ W" v! U: C

    0 N  E7 Z' Y& j/ [
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-9-11 15:21 , Processed in 1.142423 second(s), 50 queries .

    回顶部