QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2012|回复: 0
打印 上一主题 下一主题

[建模教程] 数学建模————统计问题之分类/聚类(二)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2019-4-1 16:04 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    数学建模————统计问题之分类/聚类(二)
    ) M2 c+ {9 k/ z& [. F+ ~  首先要弄明白分类和聚类的区别:7 l1 _* M8 D; u$ S( Q6 X& T# q+ }
         分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。" b; p5 x8 k  {

    , K2 ?4 \: A3 l! O$ U: c      比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
    , z8 X. C% v  u2 {: ]) c5 v
    4 z. |/ f8 g5 _     聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
      g; m) S6 k4 x2 S; P$ E1 i0 _# q! B( W
    ! c- o% ]7 b( ^2 ]$ e4 h8 n: Q     同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。# g; X7 B9 L  H! ]

    5 s  }7 Z( u( M; z, S# F1 X/ i( c, C, Y1 Y

    5 h% Z) N+ B; g& n1 W     可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
    " K- B; }2 N9 W
    8 J3 r; N  a1 @! \8 ~+ y     对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
    9 N7 e& p" v9 \7 V) K( G+ G      当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
    2 y+ q) z$ Q9 g1 r( D- b9 ^( F( q: p" _$ {
           接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。8 B3 s  f& C# p: w& O! ?7 e" m
    ---------------------
    + p0 C3 m' k7 W' W9 s, @$ F9 g     例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:: [$ M- x9 f- \7 T7 i

    ) w) l- M4 v7 U! t! R( X2 ?! u' j) c& x& d. w

    * y* g- H- O# ]# X     将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
      G2 @) f3 L5 B' x: r& J
    6 k3 r- D& s8 o1 h
    + W3 I4 S3 y9 H5 |
    " U4 p) ?) b4 A( E) T, G! b9 `7 z; P2 T7 [& V1 u
    6 T8 X. t9 G% x1 r5 k6 ]/ f9 _) d' p
    9 y" h9 @2 N$ N$ U. D" x
    $ M4 y+ T5 [. R) h5 V5 ?, ~
         与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
    7 y, Y. v. [7 w+ E2 Q; P! y4 k1 M0 q$ q% |% P' B9 T

    ' v8 s4 x9 W2 E. K! R" N: Z( ?# D

    & D! |& b$ _1 j3 Y" v% j3 Z$ [; q, H; q, w0 p- t
    4 O" m. O$ e0 B# _0 ^( B6 Z) ]

    - L2 W( x9 ]& l" L) U" R; y     因此,可以得到任意两个销售员的数据距离矩阵:4 N. o8 E0 E" D/ y
    7 e, P( D, W7 a6 n$ |$ S: m
    1 i. R! Y) N2 X& A8 W
    2 k! f$ W# @3 R( J$ [4 {6 D) e# \
    Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;) g6 k4 c# c5 Q. i! j! {" q
    ) y: h3 L$ `7 u0 B, U
    Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是       w3,w4,他们的距离为2,所以将其聚为一类;
    ! h+ c+ F7 l- p- \# [) n& g' b# BStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的   是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; ( S  p5 U. P% A8 H) t9 x( B! E
    Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为   {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
    ) r  M3 K+ |8 L: Z3 j5 R/ h8 [/ A0 v2 q7 t5 u: m6 U, A' z: I
       代码如下:%% 编程实现clc;clear;close all; S1 l- M& N+ v; _/ l. ]) y5 e8 n
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据$ Y0 O- W. X! `; q$ O: t
    [m, ~] = size(data);/ }* D- x/ Q7 B2 S
    d = mandist(data');%求任意两组数据的距离
    $ W: c3 l! H# @d = tril(d);%取下三角区域数据
    / i; j4 l% E2 P* r- G% w& S9 Vnd = nonzeros(d);%去除0元素+ ^( _/ |; V. i* f; Q
    nd = unique(nd);%去除重复元素0 W+ }/ l/ d, I* H2 b
    for i = 1 : m-1, x( T5 v" @) D' U- c2 n
         nd_min = min(nd);
    + ]! j& U  A: |     [row, col] = find(d == nd_min);5 l7 F( p- r* P% {+ T3 Y$ i
         label = union(row,col);%提取相似的类别1 ^, V! S: j1 Q0 H* }+ @- `/ [% S
         label = reshape(label, 1, length(label));%将类别标签转化成行向量
    + T, |6 k% q, W3 g% f; J     disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);
    2 @2 |, e* K2 x; y& A/ M* q% a     nd(nd == nd_min) = [];%删除已归类的距离
    % s( i$ N1 `% X$ X' a: G$ k0 J     if isempty(nd)%如果没有可分的类就停止
    ( `2 g+ n5 A1 V4 \2 r" z+ |         break# E' T' r; x# j2 B; V0 U* }3 L1 y
         end
    " Q0 F% {! ~! h end# n% @0 K- H5 G, m% D0 \
    %% 工具箱实现" b$ f7 W& k+ }3 [8 ~: o
    clc;clear;close all3 q8 t. J  u; S: ~+ \0 v9 q
    data = [1,0;1,1;3,2;4,3;2,5];%原始数据
    - `6 V/ ]# M; S5 Uy = pdist(data,'cityblock');%计算任意两样本的绝对值距离
    & D. C1 w' J+ G: F2 ?, _/ j/ \yc = squareform(y);%将距离转化成对称方阵# D2 Q0 |0 [) V
    z = linkage(y);%生成聚类树6 e2 J, B! I' G5 U+ l. o' Z8 S
    [h, t] = dendrogram(z);%画出聚类树
    , O: ~$ E( d! ~" T* Gn = 3;%最终需要聚成多少类
    8 }! Y+ ~/ o7 KT = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签
    , b1 F; {; ^" h7 sfor i = 1 : n
    . F  R7 O; M; Z8 q! O' K8 j    label = find(T == i);3 _) b; R+ x0 N
        label = reshape(label, 1, length(label));+ o; P# k  L( d/ M/ [- ]
        disp(['第',num2str(i),'类有:',num2str(label)]);
    & ]3 Q6 U% u( h+ D! M% B# A6 Uend! |* s3 a, m1 p. x7 t9 y
        结果如下:
    ; g$ {2 f% X; N" u0 o) L+ E* r$ |" r) ?. G
    ---------------------
    8 }8 Q  L5 ]3 \1 y
    1 S$ ^& G$ I7 C. B+ W  c0 H  N7 B% U: ^
    3 b" q$ Z0 _2 K0 v
    6 a; r; y0 T3 N# V. {$ A
    4 S4 u* k. a8 W
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 07:10 , Processed in 0.409774 second(s), 51 queries .

    回顶部