QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2875|回复: 0
打印 上一主题 下一主题

[其他资源] K-近邻算法分类和回归

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2022-9-5 15:43 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    # R3 l6 u  B. Y
    K-近邻算法分类和回归
    * n6 J7 x/ q) X. n8 uK近邻算法的主要思想是用离测试集数据点最近的训练集点(称为其邻居)的输出来估计测试集数据点的输出,参数K代表用多少个邻居来估计。超参数K通常设置为奇数来防止平局现象。) N% N- R2 O" W2 l
    % X9 r3 Y8 D. [/ ~' G& B
    其中对邻居的判定:我们可以用欧几里得距离来衡量距离来确定其K个邻居。2 G0 O! q5 L8 @; L! A

    ' g# j; K* U; Z& }( P" eK近邻算法是一种惰性学习和非参数模型。当训练数据数量庞大,同时你对响应变量和解释变量之间的关系所知甚少时,非参数模型会非常有用。KNN 模型只基于一个假设:互相接近的实例拥有类似的响应变量值。非参数模型提供的灵活性并不总是可取的,当训练数据很缺乏或者你对响应变量和解释变量之间的关系有所了解时,对响应变量和解释变量之间关系做假设的模型就很有用。9 g7 d" T( {; [6 [' s

    3 J# f# O" [" |( w0 jKNN模型分类:/ K; B5 W2 |5 b  i! |" U$ y
    下面我们看一个分类的例子和代码实现来了解一下K近邻算法:
    3 }4 t! e5 S0 m" |% a
    ' B. v4 w. Z% h$ C% Z: i& Y) k3 Y2 X4 r. a7 x+ N/ ^

    & E4 a; |% t7 |! i- z$ w 上表是我们的训练集,下面先对数据进行可视化) p* w+ `4 C; k" j- U: \

    8 l! V0 b" p8 h/ F3 W- ~import numpy as np  Z2 B- i" }: D2 @6 x
    from matplotlib import pyplot as plt3 A) P: z" ~7 N$ u0 f
    import sklearn
    , W8 t- `" m, z7 ~8 ?/ J5 I4 y/ A/ Y1 l5 P# F2 x" Y1 F' I1 K
    X_train = np.array([ # 身高体重
    3 S, M" M+ e" r2 J3 Q    [158, 64],! h3 y1 R+ W1 u3 e6 {
        [170, 86],
    4 Q2 e$ a! ]) T    [183, 84],
      b  L7 i/ {) W- i  Q5 y    [191, 80],
    & _3 ]9 h4 Q- J0 L2 b! E5 m    [155, 49],
    ! |5 ]# p6 B3 U    [163, 59],* q7 C4 {( V# R1 l
        [180, 67],! d2 T! d  F: b( [' c
        [158, 54],. @4 F+ n/ v5 G
        [170, 67]])" N/ c- E/ ?4 `, ]" f
    y_train = ['male']*4 + ['female']*5 # 性别
    7 R& K+ k- H3 L/ ~
    7 |" G, D+ E- _  m+ W& {9 q#绘制图像
    & v, f0 j% ]% T( \4 }4 H9 X/ p( Q1 zplt.figure()% X9 ]' J# d/ w2 c5 W
    plt.title('Human Height and Weights by Sex')
    3 i  a3 ^. _# b6 [; Gplt.xlabel('Height in cm')
    , s4 b( e+ I9 N9 u0 mplt.ylabel('Weight in kg')
    4 B4 Z; {4 f: G1 x8 N2 {0 s+ Rfor i, x in enumerate(X_train):$ _" e& S; N" _% a- O3 ^0 D
        plt.scatter(x[0],x[1],c='k',marker='x' if y_train == 'male' else 'D')$ R; @& O8 X& x9 o; K0 d( @
    plt.grid()
    7 m% [( K6 x8 _8 H, Y1 ?plt.show()
    , v% I  `) }" t# N* z3 @$ _9 Y% I. f- S
    结果: & G) b' ^) f7 _% Z0 }. t

    / D7 Q5 @' e% t7 f* W1 }( L+ s
    ' y$ @. E! E2 P5 q4 W7 l
    - K7 j% }3 D* L( F$ X+ A% c4 x6 q; e2 f+ I 我们使用欧几里得距离公式来衡量距离:
    * e& u$ I" g  S. R0 I4 L* U; {, y' ~
    : e3 m& u! A+ J/ u; C( i

    + `; V/ h- L) h2 [" e7 X: W1 ]% n' f0 P0 H6 I4 s

    + s' |, t* Q% A- v/ U' i7 U- z 我们设置参数K=3,来寻找3个距离最近的训练实例
    ( x. X, P* P" @2 d' B" L- a/ o. Z# u# X! T! d# @* e
    下面代码实现K近邻算法进行分类:4 m2 h2 X2 L8 W7 f8 a; l& V$ S, j
    * r6 g7 ~! J% Q6 }
    x = np.array([[155, 70]])5 g. G/ |5 i7 e+ @/ O* ?
    distances = np.sqrt(np.sum((X_train - x)**2, axis=1)) # 计算距离7 D) f4 I6 K9 `

    6 e5 M& @" C! I+ B1 ]nearest_neighbor_indices = distances.argsort()[:3] # 找出前三个距离最小的下标
    0 ~" f- D6 Y5 Z1 cnearest_neighbor_genders = np.take(y_train, nearest_neighbor_indices) # 得到下标对应的标签, A- P! @; e/ c

    & h  e7 s1 K) F% h( f% O# Zfrom collections import Counter
    0 \, ~8 T5 p! C! p( I% i, E% E! u3 H( bb = Counter(np.take(y_train, distances.argsort()[:3])) #得到三个结果标签中最频繁的标签得到结果female9 [! O' R* s4 [$ l7 R& ^
    7 u# E1 i: y& i: o; R
    print(b.most_common(1)[0][0]) # female
    " N/ I2 K0 o" f; H因此,从上述代码可以得到K近邻算法进行分类就是找到离样本点最近的K个实例,再取K个实例的标签中出现次数最多的那个作为我们的结果。
    1 c" N0 `1 n& l) b+ C$ F
    & R7 Y, `$ a# _4 l$ t! S上述K近邻算法在scikit-learn中也有对应的函数:
    5 X! f, m! H& n/ g4 x0 ^! ]* p6 s- `' z; y4 ?
    from sklearn.preprocessing import LabelBinarizer
    * @/ Y. Y6 _: q! i3 u% Zfrom sklearn.neighbors import KNeighborsClassifier& R: |  n* {( |1 U1 \9 u- v
    8 N, `+ a2 S  W  O
    lb = LabelBinarizer() # 创建将标签二值数值化的类实例
    - a* j' ]: G) {+ ~2 Qy_train_binarized = lb.fit_transform(y_train) # 将标签二值数值化
    / s3 S! }1 o% \print(y_train_binarized)
    % B6 M$ y0 \* M' M; h- W0 ?
    - j7 F  `; A' {! VK = 3
    : _2 A/ `% B: Q! y& K0 Tclf = KNeighborsClassifier(n_neighbors=K) # 创建K近邻分类器实例* ?, X! Z+ `  f8 K# N6 ?$ V9 |
    clf.fit(X_train, y_train_binarized.reshape(-1, 1)) # 对训练集进行训练4 h( D& k" V& u- A
    prediction_binarized = clf.predict(np.array([155, 70]).reshape(1,-1))[0] # 对测试样本点进行预测
    3 g6 v8 Y* D/ C0 l& g% p! A* R5 mprediction_label = lb.inverse_transform(prediction_binarized) # 将预测结果从数字转换为标签
    " n/ k/ H1 L6 u: X- \9 V# Nprint(prediction_label) # array(['female'], dtype='<U6')+ E9 }/ U$ j' `  {1 Z- g7 a; O
    KNN回归:1 W& N4 B6 c0 f6 M0 Q9 L
    K近邻算法进行回归和K近邻思想一致,只不过在得到了K个邻居后,分类是取邻居中出现次数最多的那个,而回归是取其他的操作来预测输出值(比如取平均)
    6 ], S; {& U4 w" Q+ L% C$ b8 M# `9 O  ?4 P! p( V9 U3 M" H5 w' _
    对应的代码在scikit-learn中其实也很简单9 j1 _! {3 N; J( p8 V

    / _5 K7 Q2 @' c+ s( n7 pfrom sklearn.neighbors import KNeighborsRegressor
    + N% s: L2 z/ ^' U3 A0 UK = 39 B& S; Z! [3 f' N: ^- X
    clf = KNeighborsRegressor(n_neighbors=K)
    : a# Y$ g% A4 P- K5 bclf.fit(X_train, y_train)
    * I$ |; b; l5 L' q* ?  epredictions = clf.predict(X_test)
    ! H7 U& y" s7 S. b! k特征缩放
      \- Q; m/ N# E) \! O下面我们谈谈一个提升算法精确度的小细节。假设还是上面的数据,我们现在要做回归,给定身高和性别标签来预测体重。如果我们的训练数据集包含一个身高170cm的男性和身高160cm的女性。如果我们的测试集数据为身高为164cm的男性,你觉得其预测结果会接近170cm的男性还是身高160cm的女性呢?我们可能相信测试实例更接近男性实例,因为对预测体重来说,性别差异可能会比 6cm 的身高差距更重要。但是如果我们以毫米为单位表示身高,测试实例更接近于身高1600mm 的女性。如果我们以米为单位表示身高,测试实例更接近于身高 1.7m 的男性。(记住我们以欧几里得距离来衡量)
    8 Q1 p0 i4 d0 S5 \
      G$ ]$ l+ }' B, D& p7 r/ M因此,我们的特征缩放的作用就出来了(其实就相当于深度学习对数据集预处理中的Normalize)" a  R9 v5 e  k6 w% N  x

    ! N  d& _7 q. u" q, D将所有实例特征值减去均值来将其居中。其次将每个实例特征值除以特征的标准差对其进行缩放。均值为 0,方差为 1 的数据称为标准化数据。8 j- v& y; D/ o8 _. a, i2 ?3 v5 g% f6 B: n
    ————————————————
    ; N/ m" ^  U+ t% \版权声明:本文为CSDN博主「王大队长」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    * X& G8 B* {. V6 X0 x原文链接:https://blog.csdn.net/qq_55621259/article/details/126695549
    + ^) i- Z; n, a: F6 o% i
    $ {; h/ a/ g+ J5 i7 Q6 u
    0 j  [) [. X( T5 }) x$ u2 a
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-14 10:12 , Processed in 0.385985 second(s), 50 queries .

    回顶部