- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563412 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174246
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
数学建模————统计问题之分类/聚类(二)7 o2 \! g3 ?1 ]4 { b. I
首先要弄明白分类和聚类的区别:
8 U" w0 k- d2 z8 ` g$ D) P 分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。7 V0 y* o+ [: Q& j$ [4 h4 A
8 h$ V8 p6 _; ?( X 比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。
0 w3 k/ l8 B& g3 y7 A& k0 h' l" f& H ]2 y' S$ b
聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。6 w$ y( h7 R3 U
4 F: H0 x9 k& b7 E k1 u 同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。1 G3 x/ c! c* [
( p2 T0 ^! b6 N6 ?, P
2 E' f! [8 U" \5 q3 O
( _! b& e* N; F; V 可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。# t! y4 [; v3 J2 v+ ?$ `2 g" P
% O. C+ n0 }* u. \
对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
3 n5 J b3 K8 l 当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。
( v, c) j' G( E8 P7 z$ \& i! D' t- t- w/ s5 g5 ^) }% E
接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。
! k' r! x% L! }+ s0 ]--------------------- & \" w9 V* x, i
例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:
3 s; s& `0 P2 f2 _
/ e# h) z+ l- `: t8 ^2 H# ?, x( H7 I2 i5 `
! i- n/ k" S$ D3 g% W
将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
6 V }0 u; B2 Z% n2 P a, ^; W- G9 w F5 a4 k! A3 U) r8 g
1 y6 |, I2 z, `+ Z2 T5 h$ K( ^& L( Z9 ^. f' j2 I
) [6 H% q# X- {; a, [
0 U7 b2 G; ] {1 C
, {& f( J: d; }! S0 x! z
$ W: w* g& Q" {" ?! V 与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
. x7 a9 E1 p; e1 ]+ D0 }
. b5 A" {% `7 M" J. k* ~0 y
' g8 T# H' E8 }% K4 n5 K. V3 m7 U# @
3 s& z0 c6 G9 g
& t+ M0 ?1 u6 J
$ w1 F3 l( ^& W' | z
/ t0 m0 i" K9 D) K 因此,可以得到任意两个销售员的数据距离矩阵:
1 `" D) O. `- E6 |+ m6 G8 n5 U0 Z' k/ M
8 u0 j6 P F/ z) d5 ^- }* @& u
1 E7 a: v& V6 v4 {$ T. W
Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
4 c+ h, N& l0 @) e4 [$ f
3 ?1 d0 B/ ^$ Z- ?' eStep2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是 w3,w4,他们的距离为2,所以将其聚为一类;
: H3 ~! |. S7 ZStep3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的 是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; ' e& @9 D0 n# F8 ^
Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为 {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。
: p3 b3 A$ M3 l( O$ G+ x! _& O) X' {0 Q/ n) K
代码如下:%% 编程实现clc;clear;close all
+ x& e/ u) l4 _' @data = [1,0;1,1;3,2;4,3;2,5];%原始数据
# g- B: M3 S" Y6 {5 r: U[m, ~] = size(data);
5 h6 `2 N9 d# |5 ^( Y8 yd = mandist(data');%求任意两组数据的距离
- h8 j$ m5 ?1 ?% m9 d% sd = tril(d);%取下三角区域数据
# d% D4 K9 x* Ond = nonzeros(d);%去除0元素+ |: m; E3 h; p8 q
nd = unique(nd);%去除重复元素
; z5 ]' Z, X9 X; M8 e; Y/ n6 @! y' C# O for i = 1 : m-1
2 _$ c+ z7 Q! {% h) C nd_min = min(nd);# p* ^' \8 g$ I% c" [! r
[row, col] = find(d == nd_min);* p; A1 j7 D0 K k: {1 k- k$ j e
label = union(row,col);%提取相似的类别& p" L: ^2 v( N" Y+ ]( I; I4 U
label = reshape(label, 1, length(label));%将类别标签转化成行向量. y0 p5 v$ I4 ?/ g* {7 t5 s1 T; Q
disp(['第',num2str(i),'次找到的相似样本为:',num2str(label)]);! X$ l0 e' p& x9 X
nd(nd == nd_min) = [];%删除已归类的距离. m( m4 \7 |4 q
if isempty(nd)%如果没有可分的类就停止
2 n: @; e' o6 ^& f1 Z) B3 |* [ break! ^. N. p+ c0 V% C9 y. t
end
`; `( O" x. X* N/ f7 u end
6 t1 w* m: o# h* v$ n$ E7 a+ l! Y0 \%% 工具箱实现
2 K1 J: f: e' k/ f0 K, l% G& \clc;clear;close all# V0 R; Y' r: p4 C
data = [1,0;1,1;3,2;4,3;2,5];%原始数据
+ n% Y3 f4 n. O+ Q* ~2 S" b. py = pdist(data,'cityblock');%计算任意两样本的绝对值距离3 k: x$ m' |4 T
yc = squareform(y);%将距离转化成对称方阵# B2 i w! k! T2 F
z = linkage(y);%生成聚类树5 p8 s1 U3 R9 s! j
[h, t] = dendrogram(z);%画出聚类树
9 P0 [+ o/ E1 L+ X5 c5 tn = 3;%最终需要聚成多少类2 x) Y4 d! G, s
T = cluster(z, 'maxclust', n);%分析当分n类时,个样本的标签' Q5 H9 g# y" y7 H* _ |
for i = 1 : n
2 x1 u9 N: H- Z/ C label = find(T == i);6 e% b. `- Y8 \3 m, K5 c
label = reshape(label, 1, length(label));' p& Y& |- M" K- O/ K. L) D: s
disp(['第',num2str(i),'类有:',num2str(label)]);
! e$ @3 R7 i; u, F2 fend2 i+ V' z7 n: F7 b V
结果如下:
; @$ ?5 q6 o9 B! G: G+ \![]()
% G' u. o; }8 Z B1 y3 P2 ]--------------------- & t" f( T6 }$ X3 f- L! s/ x
s' _4 m1 L6 _! ]$ L9 t
4 }, i% i5 n4 w* j& W( r( I+ R5 C) k6 d+ i. e
, ?& u/ V6 O6 F: U: T
( W2 v# A+ }9 s" E- l& v* j6 B" a% V |
zan
|