- 在线时间
- 791 小时
- 最后登录
- 2022-11-28
- 注册时间
- 2017-6-12
- 听众数
- 15
- 收听数
- 0
- 能力
- 120 分
- 体力
- 36305 点
- 威望
- 11 点
- 阅读权限
- 255
- 积分
- 13852
- 相册
- 0
- 日志
- 0
- 记录
- 1
- 帖子
- 616
- 主题
- 542
- 精华
- 12
- 分享
- 0
- 好友
- 225
TA的每日心情 | 开心 2020-11-14 17:15 |
|---|
签到天数: 74 天 [LV.6]常住居民II
 群组: 2019美赛冲刺课程 群组: 站长地区赛培训 群组: 2019考研数学 桃子老师 群组: 2018教师培训(呼伦贝 群组: 2019考研数学 站长系列 |
分类与聚类的区别4 y) X( w' b3 ]" w/ R, v j2 k2 Z
Classification (分类)—— Supervised Learning (监督学习)
6 y/ X$ v1 g8 m: \8 w, J1.定义9 d2 z) U6 V, |8 J/ A1 s, Y
利用分类技术可以从数据集中提取描述数据类的一个函数或模型(也常称为分类器classifier),并把数据集中的每个对象归结到某个已知的对象类中。从机器学习的观点,分类技术是监督学习,即每个训练样本的数据对象已经有类标识,通过学习可以形成表达数据对象与类标识间对应的知识。所谓分类,简单来说,就是根据数据的特征或属性,划分到已有的类别中。
+ {+ j' \$ X, {$ u* b* B
4 E! U/ x @( @ d. Y6 v# G s分类作为一种监督学习方法,要求必须事先明确知道各个类别的信息,并且断言所有待分类项都有一个类别与之对应。但是很多时候上述条件得不到满足,尤其是在处理海量数据的时候,如果通过预处理使得数据满足分类算法的要求,则代价非常大,这时候可以考虑使用聚类算法。6 U; @/ _9 p3 r% y3 @& u; n
- R1 l$ J* o& e8 m& |2 ^1 @- A
2.常用的分类算法包括
* g% E; X2 ]& j0 S∙∙ 决策树分类法 & h2 u( |! D7 l4 T/ A5 R
∙∙ 基于规则的分类器 6 O. E' z) L* N I1 f
∙∙ 朴素的贝叶斯分类算法(native Bayesian classifier) 0 \2 [( _" F& s. m! d9 F
∙∙ 基于支持向量机(SVM)的分类器 ; `5 B! m' T4 V4 o
∙∙ 神经网络法
C/ W- i# {9 x0 t1 b1 ^∙∙ k-最近邻法(k-nearest neighbor,kNN)
1 V! ]9 A) y( d5 r; w/ a9 `∙∙ 模糊分类法& S5 p, x6 s! J. k8 X
. ^3 W+ c1 u7 Q* ~: F. y5 H+ P5 JClustering(聚类)——Unsupervised Learning (无监督学习)& u- x) ^4 [! M% W' |1 A. V
1.定义. j( P4 |% _" r3 ?2 y0 w" g
简单地说就是把相似的东西分到一组,聚类的时候,我们并不关心某一类是什么,我们的目标只是把相似的东西聚到一起。聚类分析就是将数据划分成有意义或有用的组(簇)。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了,因此 clustering 通常并不需要使用训练数据进行学习,即unsupervised learning (无监督学习)。聚类分析仅根据在数据中发现的描述对象及其关系的信息,将数据对象分组。其目标是,组内的对象相互之间是相似的,而不同组中的对象是不同的。7 W1 J2 q7 P$ W! F$ n. r
& R4 A- ~" s& w: |5 X) C
2.什么是一个好的聚类方法?4 x6 R! K/ `5 q5 g; N6 v
∙∙ 一个好的聚类方法要能产生高质量的聚类结果——簇,这些簇要具备以下两个特点: 高的簇内相似性、低的簇间相似性
9 b1 {- D8 y" j* _5 D∙∙ 聚类结果的好坏取决于该聚类方法采用的相似性评估方法以及该方法的具体实现; # Y" z, w8 M/ ?0 C* s8 |$ O
∙∙ 聚类方法的好坏还取决于该方法是否能发现某些还是所有的隐含模式;
' Z; t& n' {% h1 D' j( U* U. i5 s0 R& V4 G4 b( T. d6 g
3.不同的聚类类型
3 J4 o' p3 P7 p$ K' \( X∙∙ 划分聚类(Partitional Clustering):划分聚类简单地将数据对象集划分成不重叠的子集,使得每个数据对象恰在一个子集。 6 Y+ D3 c5 s1 K4 J+ H
∙∙ 层次聚类(Hierarchical Clustering):层次聚类是嵌套簇的集族,组织成一棵树。
. q. f& Y$ j5 i$ g% Y- I∙∙ 互斥聚类(Exclusive Clustering):每个对象都指派到单个簇。 - s8 E \, [6 o( A+ ]1 A
∙∙ 重叠的(Overlapping)或非互斥的(Non-exclusive)聚类:聚类用来反映一个对象.同时属于多个组(类)这一事实。例如:在大学里,一个人可能既是学生,又是雇员
- `4 O5 n: w9 k1 b0 ^( m7 D* Y∙∙ 模糊聚类(Fuzzy Clustering):每个对象以一个0(绝对不属于)和1(绝对属于)之间的隶属权值属于每个簇。换言之,簇被视为模糊集。 ! W/ z+ z) o9 s6 n. B
∙∙ 完全聚类(Complete Clustering):完全聚类将每个对象指派到一个簇。
8 {! w' h/ V% r7 ~7 @∙∙ 部分聚类(Partial Clustering):部分聚类中数据集某些对象可能不属于明确定义的组。如:一些对象可能是离群点、噪声。
: b. G+ D* T5 i. t, m5 E% K9 r3 y, D5 ?# H9 ?5 a5 g, @
4.不同的簇类型
+ l1 H# @+ J! O6 S∙∙ 明显分离的(Well-Separated):每个点到同簇中任一点的距离比到不同簇中所有点的距离更近。
: ^1 V3 f, f5 e∙∙ 基于原型的:每个对象到定义该簇的原型的距离比到其他簇的原型的距离更近。对于具有连续属性的数据,簇的原型通常是质心,即簇中所有点的平均值。当质心没有意义时,原型通常是中心点,即簇中最有代表性的点。基于中心的(Center-Based)的簇:每个点到其簇中心的距离比到任何其他簇中心的距离更近。
3 p3 m9 f& i+ Q7 W/ e. {8 ~0 v6 n∙∙ 基于图的:如果数据用图表示,其中节点是对象,而边代表对象之间的联系。簇可以定义为连通分支(Connected Component):互相连通但不与组外对象连通的对象组。基于近邻的(Contiguity-Based)簇:其中两个对象是相连的,仅当它们的距离在指定的范围内。这意味着,每个对象到该簇某个对象的距离比到不同簇中任意点的距离更近。
1 e. x1 L1 l, [2 J: H0 _∙∙ 基于密度的(Density-Based):簇是对象的稠密区域,被低密度的区域环绕。 + D( d: S7 ?8 b4 G- C q
∙∙ (共同性质的)概念簇(Conceptual Clusters):可以把簇定义为有某种共同性质的对象的集合。此情况下,聚类算法都需要非常具体的簇概念来成功检测这些簇,发现这些簇的过程称作概念聚类。然而,过于复杂的簇概念将涉及模式识别。# B+ ~; U' e1 D/ V
8 `- `; G0 X3 T: t2 r( h- D9 I" X. n; S+ P$ y: N
|
zan
|