QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2007|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |正序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)4 ^5 A; x2 ^# H$ G+ a$ y, B# K
      首先要弄明白分类和聚类的区别:" U* Z. _" ]. P) v3 H, f( h& Z6 m3 Q3 a
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。. B% a, ^- p5 x6 T6 E

    & I/ W' ^& Z, j8 k) u      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。8 {/ _2 D; ^3 ?  T; s1 m0 V3 t6 Y

    8 v7 Y1 g7 E2 B5 `- N0 T1 X/ E     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
    2 h8 I& s! q3 [" m2 A8 F; u4 G/ k9 i9 A- L! P* ^* b
         同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。
    7 l+ \+ \+ L' R9 r# J) X! e" c- Z6 U7 a1 K# n3 N

    * G! \4 f2 P# {4 M& v! G! w& H& m2 Y0 v" L
         可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。, ^+ N' A/ J8 V' E8 p8 m' |
    % T2 G( \* _0 @' M" t. Z
         对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
      w! @& k9 ?6 [% `6 a      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    " V# m9 t( @0 q3 a8 _
    : P3 {! l( x/ _       接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。9 D( V& M) ^6 Z0 w8 @3 d- H
    --------------------- 4 y$ x; ~1 Y/ u: x% E
         例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:6 J: t! o: Y0 R1 Z

    " Z0 W) |1 B: O1 m3 z3 ?4 w- B5 {' X& E0 X3 o
    6 W- Y! s- V( Y  T- ]
         将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:# h* v; r1 g9 S
    * Q% K2 X/ K9 J% k

    : \* [5 w  I6 o9 i' r" E& v0 Z0 Q9 U# t4 y9 d
    ; G3 M& J, o1 L! D9 B6 I$ [
    & Q8 r% k" Q+ X7 x( q
    3 _% X+ r) p) p$ v0 ~( q& y

    ' r+ C' U  B3 P( A3 \5 W     与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    % m+ Q. o5 b; U9 X& @2 E* C& Q
    $ J) k+ g2 `3 \
    6 j' J8 A$ Q4 b$ y* c! u5 K
    + c! x) d3 C. k, _' h: G4 R* O
    4 D9 Z9 C8 ]3 }: z2 L; c
    - M6 X: f5 v2 K3 V: J, w: _( g8 s; \+ F! ~9 b
    0 L1 P1 M  [" J+ g
         因此,可以得到任意两个销售员的数据距离矩阵:
    , i) K' T1 ], w
    * |' m- J2 h4 J  ]8 g0 J
    # I* `& j; n+ P3 t) o- F
    5 q8 z8 Y+ ]3 s! g, RStep1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
    8 T$ w) o& b7 w, O! h2 m
    + W. e* [' W1 G3 }: \' Y. y* ^4 XStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    ; E- d: k7 I3 w, o( i: z0 s4 Z3 ~) PStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类;
    9 c* n' N; t! _2 u! eStep4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。2 R8 w  @  e) a" r8 {

    % ?% y9 n' _6 R, F; o1 s9 x   代码如下:%% 编程实现clc;clear;close all  S' d( |* ]6 j1 s! j
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    1 E/ m4 t: m. ~[m, ~] = size(data);1 N6 Y$ |8 i5 ~; n$ W, p5 D; V
    d = mandist(data');%求任意两组数据的距离
    / o1 ]" r" ~. c6 M6 a1 ?5 e4 Jd = tril(d);%取下三角区域数据7 F# R- Z/ k, d9 U" c
    nd = nonzeros(d);%去除0元素
    % O5 t# U7 C, M2 q# `: n7 P8 ?8 K1 und = unique(nd);%去除重复元素
    6 G9 ~8 A0 A. {3 Y- e for i = 1 : m-1
    ! C' L7 G  d: ?; _     nd_min = min(nd);, g- A: B9 S: ?- k. G+ g8 D8 j
         [row, col] = find(d == nd_min);7 c+ P; l+ H2 M- d2 u4 x' {
         label = union(row,col);%提取相似的类别6 P% L0 t/ Y4 P2 a4 P
         label = reshape(label, 1, length(label));%将类别标签转化成行向量; C8 N+ k# v, k' i: b- n* @
         disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);" r0 N2 m8 o2 L; b
         nd(nd == nd_min) = [];%删除已归类的距离
    ) v& n6 \0 ^7 N     if isempty(nd)%如果没有可分的类就停止. {; K9 d6 h+ a& S4 d/ O
             break
    3 M+ P9 k. a  q% o7 g( z     end
    7 P1 e) Q: f& B- @ end( v. e2 Q3 i$ P/ Y5 s$ n; y
    %% 工具箱实现5 b4 d, f! v& V# c6 X" c7 Q
    clc;clear;close all
    ) q5 z0 `9 P1 t4 i8 U9 ?) O! V1 Sdata = [1,0;1,1;3,2;4,3;2,5];%原始数据- ?+ c+ \1 h! Z
    y = pdist(data,'cityblock');%计算任意两样本的绝对值距离
    + B: i, K+ K4 z2 Hyc = squareform(y);%将距离转化成对称方阵
    4 M) H7 ~/ z4 ]4 Xz = linkage(y);%生成聚类树
    ! i" I4 y' i, h- G: F/ r+ V% q. P[h, t] = dendrogram(z);%画出聚类树
    ' Q. {8 v9 n; r. T' gn = 3;%最终需要聚成多少类3 h7 Z# Z( J$ h' w* e) a4 ^
    T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签& ?7 `/ I$ Z3 V9 E
    for i = 1 : n) k  ]4 x4 Y4 D3 _
        label = find(T == i);
    8 F  V+ Q% w+ q& ~* ]! I% f: S    label = reshape(label, 1, length(label));1 Y9 A) _1 S6 J% [; y# ?
        disp(['第',num2str(i),'类有:',num2str(label)]);
    0 e5 |$ N9 j( E) Gend
    $ i( n& I  N9 h    结果如下:
    + U3 W  v* j% |- g; W: p1 M* I8 ]& H9 O! j  G
    --------------------- ; H8 t# i1 }7 e5 e" I
    / B" s& P) y! \( Z8 y8 Y& I

    * {7 m9 J9 p8 a: g4 R1 Q3 Y7 [6 B2 Q
    9 ]6 M+ P, I+ j( n' M4 j$ q& i3 X+ u4 l
    4 U* H- K+ ?1 {& Z$ @" g" J
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-14 12:23 , Processed in 0.678154 second(s), 51 queries .

    回顶部