- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563322 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174219
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
7 `7 K( Q' k5 z9 r6 G; e2 {* NK-近邻算法分类和回归( z9 ~6 U" P7 V) E: o
K近邻算法的主要思想是用离测试集数据点最近的训练集点(称为其邻居)的输出来估计测试集数据点的输出,参数K代表用多少个邻居来估计。超参数K通常设置为奇数来防止平局现象。" i/ B4 h* q& u3 H' B! T
( [; v( c8 h% g* m# y
其中对邻居的判定:我们可以用欧几里得距离来衡量距离来确定其K个邻居。
3 k5 W( u6 P+ ]( @
! C: p, _7 P3 t, p# w& K9 Q! r) PK近邻算法是一种惰性学习和非参数模型。当训练数据数量庞大,同时你对响应变量和解释变量之间的关系所知甚少时,非参数模型会非常有用。KNN 模型只基于一个假设:互相接近的实例拥有类似的响应变量值。非参数模型提供的灵活性并不总是可取的,当训练数据很缺乏或者你对响应变量和解释变量之间的关系有所了解时,对响应变量和解释变量之间关系做假设的模型就很有用。
" h+ m; _. ^' }/ ^# h3 }; }! I0 h! ^2 |. Y; E8 K7 W: N1 U
KNN模型分类:
& h& l' U1 E9 i, d% O下面我们看一个分类的例子和代码实现来了解一下K近邻算法:
9 s6 s" y" o5 _" ]# l7 g9 k- Y) h
" p- n/ ?5 T; ?$ a7 t: y/ ~. p0 X+ m; O. \( g
* R/ R% K6 O8 ?! n M 上表是我们的训练集,下面先对数据进行可视化
# `) u! W1 Y$ q; B: N
8 k. w9 s3 R& a8 S5 i* }# _import numpy as np
' p0 u: w% C' I# D: y) \from matplotlib import pyplot as plt7 m* T5 Q+ ]; ?$ u3 N9 y, d. i) F
import sklearn$ d. Z/ w& K4 R- V
$ ]7 t& Z2 I% D4 h9 \$ V/ A6 Z5 ]( C
X_train = np.array([ # 身高体重% q1 |! M/ M* Y
[158, 64],
; z8 H2 i ?2 z( f2 h' g [170, 86],
. h2 O5 {* r% W8 B [183, 84],8 J, ^' { y5 s) b$ R% t K
[191, 80], V! }4 O+ c( A" B
[155, 49],& M( o* A- G( p l
[163, 59],
. D* O. {& T* O9 z [180, 67],8 p3 c3 \, P/ [$ B5 F) Z7 i
[158, 54],
) ?1 C! a3 n& V: m; f( |' z% o! q [170, 67]])
! B. X' F1 k' g+ Zy_train = ['male']*4 + ['female']*5 # 性别. j9 }% a4 C, ?% A
) A) `* Q5 p0 f7 a/ t& T
#绘制图像
( G6 f- c$ I% ^+ Xplt.figure()
9 Z, l; v& k- O6 u9 S# }plt.title('Human Height and Weights by Sex')
! F! E, L9 ?- G/ c0 Q; qplt.xlabel('Height in cm')
, a8 g4 [) Y) I5 L$ n! h$ o4 E6 qplt.ylabel('Weight in kg')
) S- J$ H* f6 j+ P+ Vfor i, x in enumerate(X_train):' L2 X: v( s" |) c; C0 Q+ b1 j5 o# q
plt.scatter(x[0],x[1],c='k',marker='x' if y_train == 'male' else 'D')0 [' M/ ~& [, C. F4 X2 l0 g3 C5 k
plt.grid()
& e/ E4 ]" q9 g2 Tplt.show()2 u, X0 M* T2 ~" S* B! f7 w! |& [
% v: R" c# u4 ]% v
结果: P& y* H& P% s$ c0 f/ K+ g, C
9 l3 |, A5 d2 l) _8 R- _% Z" m( }$ k9 y, U; _
& D- Z) d+ h& [0 J+ Q 我们使用欧几里得距离公式来衡量距离:
, {4 @. A' F7 O
) I/ c0 o$ Q0 T! C! H* B& r$ v. s. w& e
8 ]; _6 T) @& p/ u
3 X- t$ s6 r# H, D
H: Z; U* K% \6 ~7 _ 我们设置参数K=3,来寻找3个距离最近的训练实例
5 N9 G7 j$ V6 t
6 b. Z' k( E6 A# P5 g+ s, E; G) G下面代码实现K近邻算法进行分类:
" H( I# i" c9 W8 K% g
- @9 l/ N0 l$ |: P2 ~9 t6 rx = np.array([[155, 70]])# D- T. k& Y( Z& s. N1 n0 M+ Z
distances = np.sqrt(np.sum((X_train - x)**2, axis=1)) # 计算距离
% `7 D. }- {7 p$ Z
9 y# W. `; `& U. |" Z5 H( S. ?5 Ynearest_neighbor_indices = distances.argsort()[:3] # 找出前三个距离最小的下标! N1 M6 e+ u# D- j0 O2 i7 f4 C
nearest_neighbor_genders = np.take(y_train, nearest_neighbor_indices) # 得到下标对应的标签6 T! e% D$ h+ x0 i7 i" O" D
8 I8 v) i3 J+ g) Vfrom collections import Counter5 b- k6 F+ \8 T
b = Counter(np.take(y_train, distances.argsort()[:3])) #得到三个结果标签中最频繁的标签得到结果female8 b) h( d- C0 ]3 v* S3 H% |
7 ~/ n& L- e) @8 V7 A4 P; B3 eprint(b.most_common(1)[0][0]) # female5 K7 b; t$ \* ^3 M
因此,从上述代码可以得到K近邻算法进行分类就是找到离样本点最近的K个实例,再取K个实例的标签中出现次数最多的那个作为我们的结果。) J8 a$ Y! H8 p
- }) v% b3 I/ m2 _; J4 w
上述K近邻算法在scikit-learn中也有对应的函数:! z" B( @. z( p% ]6 ~7 i
7 I& Y( P1 y+ e! I5 |. M
from sklearn.preprocessing import LabelBinarizer
( x# d5 s5 R! u# P, D3 K+ U! V0 [from sklearn.neighbors import KNeighborsClassifier
% a: S5 M8 U) F V% A2 G$ _& t& k3 M! U" J o" K
lb = LabelBinarizer() # 创建将标签二值数值化的类实例
& B3 z. F1 I2 v+ y1 k# q ly_train_binarized = lb.fit_transform(y_train) # 将标签二值数值化0 n' H) M( N2 C; l4 [: `5 h$ O
print(y_train_binarized) ( g7 N( @: s) D
1 V( a* G' N- {, {, g* zK = 3" f3 v8 J( ?3 c: f _
clf = KNeighborsClassifier(n_neighbors=K) # 创建K近邻分类器实例
" O- |+ o3 c! n+ Lclf.fit(X_train, y_train_binarized.reshape(-1, 1)) # 对训练集进行训练
3 p2 S/ e" F( ?4 @, V$ ?% Zprediction_binarized = clf.predict(np.array([155, 70]).reshape(1,-1))[0] # 对测试样本点进行预测
3 }1 q- {7 e# X3 ~: @: D: Oprediction_label = lb.inverse_transform(prediction_binarized) # 将预测结果从数字转换为标签$ H3 J t1 v' S: z3 ?9 k
print(prediction_label) # array(['female'], dtype='<U6')
* d8 Q* ?4 j( b; IKNN回归:& Q: e$ H' k* C5 ]% O5 H: l
K近邻算法进行回归和K近邻思想一致,只不过在得到了K个邻居后,分类是取邻居中出现次数最多的那个,而回归是取其他的操作来预测输出值(比如取平均)& g. r: y: P" h- l! a- W$ u
. J! Q. ?! y+ q) n6 Z, |对应的代码在scikit-learn中其实也很简单/ |/ U( [; C6 h
5 X9 t- m7 j" j( |* L" z! j
from sklearn.neighbors import KNeighborsRegressor
% v* \* e: d5 ^% a. I& HK = 3
( i! C: V! k) z. W; g0 p. nclf = KNeighborsRegressor(n_neighbors=K)
" e( P9 Z% x7 E4 Q5 v$ mclf.fit(X_train, y_train). `1 P8 H) Z# I& n8 d! h
predictions = clf.predict(X_test)
% t5 J5 b' `( ?/ r. j6 {1 p特征缩放9 Q- C" a' H/ e/ B; {$ @
下面我们谈谈一个提升算法精确度的小细节。假设还是上面的数据,我们现在要做回归,给定身高和性别标签来预测体重。如果我们的训练数据集包含一个身高170cm的男性和身高160cm的女性。如果我们的测试集数据为身高为164cm的男性,你觉得其预测结果会接近170cm的男性还是身高160cm的女性呢?我们可能相信测试实例更接近男性实例,因为对预测体重来说,性别差异可能会比 6cm 的身高差距更重要。但是如果我们以毫米为单位表示身高,测试实例更接近于身高1600mm 的女性。如果我们以米为单位表示身高,测试实例更接近于身高 1.7m 的男性。(记住我们以欧几里得距离来衡量)
6 M6 V1 ^+ ` O" E. P3 P# G0 P3 A" r. V0 L. }
因此,我们的特征缩放的作用就出来了(其实就相当于深度学习对数据集预处理中的Normalize)$ n. Y/ Y; ]5 K5 U0 e
, R9 }0 \ ~8 S! j4 C% c/ S
将所有实例特征值减去均值来将其居中。其次将每个实例特征值除以特征的标准差对其进行缩放。均值为 0,方差为 1 的数据称为标准化数据。
% W2 K# f' s' ]. m0 r————————————————
; b) o, W2 _2 \版权声明:本文为CSDN博主「王大队长」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。; `; Q6 I6 S N) t
原文链接:https://blog.csdn.net/qq_55621259/article/details/126695549
( K% A [9 x9 o! ~. a( L |# t0 h2 r V) a) f
; w* p/ c% m7 K9 V! i9 O |
zan
|