QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3380|回复: 0
打印 上一主题 下一主题

[其他资源] 【机器学习】无监督学习的概念,使用无监督学习发现数据的特点

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2022-9-14 16:37 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    【机器学习】无监督学习的概念,使用无监督学习发现数据的特点5 F7 b7 B5 Z6 J2 a/ {* A0 y$ P

    2 L  z8 k6 |, K4 v到目前位置,我们主要把注意力集中在监督学习的问题上,数据集中的每个数据点都有一个已知的标签或者目标值。然而如果面对没有已知的输出结果,或者没有人监督学习算法,我们要怎么做。
    1 M; M# E, J& T$ S! Y% I' R5 ]" T
    这就是无监督学习 。
    & U+ I# U0 K' E1 y
    3 f3 h: Y( B, j% y& G$ t/ l+ i在无监督、非监督学习中了,学习过程仅使用输入数据,没有更多的指导信息,要求从这些数据中提取知识。我们已经讨论了非监督学习众多形式的一种降维。另一个普及的领域就是聚类分析。他的目的是吧数据分为相似元素组成的不同区域中。
    ) o* Q( u9 i" T7 l; l) @+ q+ U6 j5 y0 Z2 t0 s1 l6 k
    在本章中,我们想要理解不同的聚类算法如何从简单到,无标记的数据集中提取特征。这些结构特征,可以用于特征处理,图像处理,甚至是作为无监督学习任务的预处理步骤。  G, a( q5 K: c1 h
    作为一个具体的例子,我们将对图像进行聚类,将色彩空间降到16位数。
    7 ^7 b: ]3 g' s! O; l4 }! V* @; j; L2 v* v5 A" B2 }; E
    解决的问题: t/ U. K. _  P0 l1 Z# |" q
    1.K-means聚类和期望最大化是什么?如何在opencv中实现这些算法。- [+ k- v) G: H2 o" z8 g1 z
    2.如何在层次树中使用聚类算法。他带来的好处有哪些。/ L2 ?( }" X: g1 m: Y) ~- z
    3.如何使用无监督学习,进行预处理,图像处理,分类。
    9 i0 e% Y1 \) e" B9 n
    % J# D8 x* f. L% n4 ~1 理解无监督学习
    & _  ~8 v" U& p# K: p& q( H无监督学习可能有很多形式,但是他们的目标总是把原始数据转化为更加丰富,更加有意义的表示,这么做可以让人们更容易理解,也可以更方便的使用机器学习算法进行解析。' e4 |  g' b9 a& Y# U
    无监督学习的应用包括一下应用:
    4 l4 r6 r: e( s9 t- d1降维:他接受一个许多特征的高维度数据表示,尝试对这些数据进行压缩,以使其主要特征,可以使用少量的携带高信息量的数据来表示。
    6 ]& U. x, V* a% e8 X2因子分析:用于找到导致被观察的到的数据的隐含因素或者未观察到的方面。
    / k) r# A4 O7 O6 z! w3聚类分析:  f, O. l! _4 ?) X" E7 F
    尝试把数据分成相似元素组成的不同组。7 j! ^+ |6 m0 r$ B
    : o+ [% q6 X4 q2 t0 _, h, W. g0 L0 u- e
    无监督学习主要的挑战就是,如何确定一个算法是否出色,或者学习到什么有用内容,通常评估一个无监督学习算法结果的唯一方式是手动检查,并确定结果是否有意义。
    $ m8 F2 V9 }" F+ P( ?$ R' q. |2 B& \6 \& o: n4 B6 [
    话虽然如此,但是非监督学习,可以非常有,比如作为预处理或者特征提取的步骤。
    / c) i# S/ Z: u/ |: f% G
    % t3 T; @: g7 c7 M3 T' I2理解K-means聚类! O, s+ Z( Q; z' I7 Y/ J
    Opencv 提供最有用的聚类算法是k-means,因为它会从一个没有标记的多维度数据集中搜寻预设的K个聚类结果。
    & Y% {9 e; e& Q7 s
    * Z, C  M% x) l+ z它通过两个简单的假设来完成最佳聚类了。
    % x7 ?- C4 g0 V1 _% {1 每个聚类中心都是属于该类别的所有数据点的算术平均值
    ' ]1 m  X& y7 y2 聚类中的每一个点相对其他聚类中心,更靠近本类别的中心。: V+ m+ F/ v5 E. K, E, u6 Z; G
    " l4 m' I/ S  C1 {5 N0 U8 K5 j
    2.1 实现第一个kmeans例子$ O. `6 |% p* h
    首先,生成一个包含四个不同点集合的数据集。为了强调这是一个非监督的方法,我门在可视化将忽略哪些标签。使用matplotlib进行可视化。
    4 ?+ O/ M, m2 ^+ d; @
    & A# n2 c5 S9 }" }( K) s# K; u7 S4 M+ Qimport matplotlib.pyplot as plt
    # l' G2 \5 P" O0 p: }9 ^5 L+ bimport pylab& u& W# c6 l* k
    from sklearn.datasets._samples_generator import make_blobs( w2 Z' T& X: Z( z
    ' u; j2 p3 {, V& x
    plt.style.use('ggplot')3 }3 X$ j* B/ x4 C3 ]( m' }
    x,y=make_blobs(n_samples=300,centers=4,cluster_std=1.0,random_state=10)
    7 M/ F3 u; \0 j, X; P3 ?% n! kplt.scatter(x[:,0],x[:,1],s=100)
    9 }4 T  ]) A: M, ]( B1 v8 Hpylab.show()
    , \7 O8 N& ~/ c. d7 h( W1 ?" J  N. |- W7 Z" V3 W; P$ q: A1 V
    - Y# e# k8 f. X9 C/ ]3 f2 [* i# }
    1
    7 t# H- I2 m" K2$ V3 m* j! T, G/ _6 c2 \
    3% j- C" |2 P% ^3 H9 C
    4  k) J6 }: @" i; Q* j( p
    5
    - c0 d6 d/ j6 W0 j, O6
    2 H+ T, y6 g; _$ `5 e# X& f7
    $ ?! q6 I  U4 I' x  S  @* }! y4 _8
    ; G8 ?6 Z- _+ D2 L2 T# y9; G" g; W. m& {8 r' E1 e/ X
    101 x' ]8 d9 @6 X3 a8 U

    ' ]4 ^) B) G4 a* y( s" K+ Q我们创建一个四个不同区域的聚类,centers=4,一共300节点。
    7 {5 f, x8 L" N; o% g8 y如上程序生成图像所示结果。
    4 [7 J' D( b5 n' o: ]& I尽管没有给数据分配目标标签,但直接使用肉眼还是可以看出来一共是四类。
    9 F: a3 G9 Y7 X7 @; d  S4 @6 gkmeans就可以通过算法办到,无需任何关于目标的标签或者潜在的数据分布的信息。% o! v8 c' ^) W- R! B
    当然尽管,kmeans在opencv中是一个统计模型,不能调用api中的train和predict。相反,使用cv2.kmeans可以直接使用这个算法。。为了使用这个模型,我们需要指定一些参数,比如终止条件,和初始化标志。
    1 j$ n( ~; e8 c4 z) G( p8 n" E( {1 \8 ?  V
    我们让算法误差小于1.0(cv2.TERM_CRITERIA_EPS),或者已经 执行了十次迭代(cv2.TERM_CITTERIA_MAX_ITER)时候终止。0 A3 {/ r4 y9 L) s/ t7 y

    # {; a0 h7 }* }0 I% B  T1 M) G) b9 T; n: d7 `. |7 r/ u

      n( y1 }1 R4 `- V1 {; m1 a. X" ?import matplotlib.pyplot as plt
    . s" G' V; G4 w; Timport pylab# q8 _& Z1 x: z0 ?
    from sklearn.datasets._samples_generator import make_blobs
    4 S+ e! w, N! |6 simport cv2
    8 w  [+ i2 z/ H  g9 F. A4 vimport numpy as np
    % s4 O: N* X. ]1 n9 R- c' L0 ^$ O# Q; T6 l, S5 F
    plt.style.use('ggplot')( r# R% n$ y" A; Z+ l
    x,y=make_blobs(n_samples=300,centers=4,cluster_std=1.0,random_state=10)+ w9 Z9 u- r+ F
    plt.scatter(x[:,0],x[:,1],s=100)
    % ?+ o. H1 h5 E9 w. f/ z# [
    7 k) K: X1 y9 I% M8 y, z: s3 a+ I& ~% a8 M7 a9 H" C
    criteria=(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER,10,1.0)
    9 _' o4 T: X9 g3 Wflags=cv2.KMEANS_RANDOM_CENTERS
    0 ]/ g% d) H2 w1 {: |  ~compactness,labels,centers=cv2.kmeans(x.astype(np.float32),4,None,criteria,10,flags)6 I- V0 d& d6 s, X: c! K2 \8 x# Y
    print(compactness)- ~* F+ y) M% D& S% N  F: w

    , Q, I. n5 i( L' Aplt.scatter(x[:,0],x[:,1],c=labels,s=50,cmap='viridis')& E  T0 c* W+ k' D3 u+ _- A' X2 u
    plt.scatter(centers[:,0],centers[:,1],c='black',s=200,alpha=0.5)
    - A' q" p7 y% r# d( Q5 r: U$ C' c" w. v( U4 P; L# |, x6 W* c
    pylab.show()1 {' M: j& p! {' r  y9 `  }

    8 R  Z1 u; L$ {" W1 _9 o0 {
    8 M. J  o# q5 h, `8 q$ b0 _% u! e& ^4 G& Q  o0 G/ R' u
    ; t6 G  G7 d1 H& L$ e3 L
    ! u/ t' e# p" q# b! q# F

    # m4 w1 r6 D6 ~+ M. X2 ]# C0 c" e. e1 D/ ^2 Z- R
    18 P- x. P% `1 Z9 l
    2% ]6 @; ^; W7 t! t- [
    3
    + [5 N; S6 W3 Z$ K# o4
    $ B5 {5 g! S% S4 @1 T' A59 d( H: ?* T! G6 E
    6
    3 g, {* S4 R3 W" P9 C7
    ) o) u4 b) P' Y" ]% l3 k# t8
    / r- h' {$ a+ Z  R. k2 J93 T' l$ l' A  o. N
    10
    * ]( o% o# B$ t11
    9 ^& `! M: R8 ^0 P  a12; U& v1 I1 O5 ]- X- L: N
    135 y1 c2 h" g9 H4 Q" {
    14# L( }4 w! Y, ^3 U
    15, ]3 S( J3 l$ L) _
    160 v( i/ j' i% g5 `5 W2 I
    173 l- P% O7 f0 G. u( v8 I
    18$ Y" q# o7 n7 y& [7 e  C
    19
    ! j0 U) q! [2 S0 g: H  a- u20
    ( H$ h8 Q6 V% X0 G21
    ! [% k+ k# x# j1 |22" W# H8 e3 I% H* ~/ T) v& |
    23
    6 W& S( z. x. F248 D4 J% t6 x) m: z2 w1 O
    25
    7 _" h# F% ]* o" Z% C7 K262 p3 e$ _8 t6 [: ^! q. r# n+ Q  a
    上面程序结果可以产生图2的效果。
    : `' E  v' a2 T  J/ [/ z- ]6 y" ^4 q0 l! |. C
    print(compactness)这个变量,表示每个点到它聚类中心的距离平方和。较高紧凑都表明所有的点更靠近他们的聚类中心,较低 的紧凑度表明不同的聚类可能无法的很好区分。- d: w) U: z) Z  K9 v4 K

    5 w6 ]5 t' l3 x* X' O: e# M当然,这个是非常依赖于x中的真实值。如果点与点之间最初的距离比较大,那我们就很难得到一个非常小的紧凑度。因此,把数据画出来,并按照聚类标签分配不同颜色,可以显示更多信息。0 t( @6 N% A. ]$ j9 {% z

    / q0 y4 S# U, R  D4 w3理解kmeans+ `, F7 {5 d' u0 l" R
    kmeans是聚类众多常见期望最大化中一个具体的例子。简单来说,算法处理的过程如下所示:+ B% p& L# Q- T* P" S# U+ \
    1.从一些随机的聚类中心开始  M! g2 `9 b7 f( B) N/ v5 Q
    2.一种重复直到收敛+ \) c3 U7 f% ?  `: ?  h  @# E# p4 I

    % _4 n( k) x& Y$ Q* ^) m1 P9 `期望步骤:把所有的数据点分配到离他们最近的聚类中心。3 }' M* S7 ^% q
    最大化步骤:通过取出聚类中所有点的平均来更新聚类中心。/ Z1 ~3 t# X; I# X! W+ i

    " D' Y; n2 t4 k; w% }它涉及到一个定义聚类中心位置的适应性函数最大化的过程。对于kmeans最大化是计算一个聚类中所有数据点的算数平均得到。
    ( z- E/ t' ?" s& q6 I————————————————0 m1 k6 v3 E. G, m/ s
    版权声明:本文为CSDN博主「紫钺-高山仰止」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    3 m$ N0 j9 a7 L. i9 l" y原文链接:https://blog.csdn.net/qq_43158059/article/details/126789000, Y, O3 b7 c8 B2 Q

    : G; l( Q( \6 _* O5 ^
    ) [, {" Z+ X) A
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-20 08:33 , Processed in 0.458867 second(s), 51 queries .

    回顶部