在线时间 1630 小时 最后登录 2024-1-29 注册时间 2017-5-16 听众数 82 收听数 1 能力 120 分 体力 563399 点 威望 12 点 阅读权限 255 积分 174243 相册 1 日志 0 记录 0 帖子 5313 主题 5273 精华 3 分享 0 好友 163
TA的每日心情 开心 2021-8-11 17:59
签到天数: 17 天
[LV.4]偶尔看看III
网络挑战赛参赛者
网络挑战赛参赛者
自我介绍 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
群组 : 2018美赛大象算法课程
群组 : 2018美赛护航培训课程
群组 : 2019年 数学中国站长建
群组 : 2019年数据分析师课程
群组 : 2018年大象老师国赛优
( m9 l {1 V( t
KNN分类算法及MATLAB程序与结果 K邻近算法5 e# G4 D9 \ m E. J/ M1 K
! @% a' s5 c+ ^
KNN算法的决策过程
9 ?* F$ W+ L+ \* p' g u k-Nearest Neighbor algorithm . e; j; J9 J, f0 h7 ]& u. m
右图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。( S. F: M3 d4 @- D+ G Y8 L: ^
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相 似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决 策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方 法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。6 }# w8 H; X2 ~! j
KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成正比。7 y9 Q3 e% l# n! Z' N
该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量 很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法 的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样 本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误 分。1 \2 b3 O. O- U& U. s
" I( }& G) m8 _8 O2 E 相比于之前介绍的SVM及BP算法,KNN算法思想比较简单,它没有训练出模板model,然后利用model进行测试的过程,而是直接就是训练,利用已知的有标记的样本,进来一个样本就计算它与这些已知样本的距离,然后对这些距离中挑K个最小的进行投票,看K个最接近的样本中哪一个样本所占的个数多,就判断为哪一类。7 K q7 a6 J7 ?+ A' S' O
' _0 e- z( t8 y! H3 i; U 前面也提到了KNN算法的一个当样本不平衡时,如一个类的样本容量很大,而其他类样本容量 很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数,为此我觉得可以在每类中随机抽取相同的样本数进行重组成新的样本,然后再进行KNN算法,记为改进方法1,或者调节距离的权重,距离越小的投票时的权重值就越大,记为改进方法2。下面是KNN算法的MATLAB代码,及没有用随机抽样的方法进行的试验结果(三类数据分别为150 50 50),和改进方法1,及改进方法2的结果对比。) R4 Y+ V) \' W8 e( @6 s* i! l' @- ]* M
$ V$ A' a M. ]
未改进的结果,由于其中一类样本是150个,其他两类是50,所以数据有偏斜,结果为:+ z x3 r- U K+ B- r
$ l3 v' a0 w$ A3 P% `7 k! L 整体分类精度为:0.90476- L- ?8 r& |# x1 w0 b
类别1的分类精度为:0.94118
( a. i# i, ^- R8 Z w 类别2的分类精度为:0.58824
9 T0 y' {/ k% ? 类别3的分类精度为:1
L2 O( g1 g3 _, e4 F
2 P) m, k1 R5 D
. {3 A% o& c \$ [0 F 改进方法一,随机抽样组成新的样本,新样本中,各类的样本数相同。结果为:
' `; b4 ^7 r1 r$ E$ W, @) Z
. a( Q/ M$ F+ x9 k" c+ b 整体分类精度为:0.94048
' [- L. F0 i* G5 ] 类别1的分类精度为:0.94118/ M, Y. k' \9 g
类别2的分类精度为:0.76471
8 Q8 T# w# l2 i0 @ 类别3的分类精度为:1
1 D5 a E I6 o' ]3 t( o 改进方法二,增大最小距离的投票权重,当然也可能是我的权重选的不合适,结果为:1 e* r. X6 H' }1 y; {
+ C! ?4 Z6 `7 n( v8 |! f* e 整体分类精度为:0.904762 b+ W0 m$ V! i- e! \
类别1的分类精度为:0.94118
W5 f& f& Q0 s8 y 类别2的分类精度为:0.58824
/ g- ]; z5 }: J; _' d4 [# M5 c 类别3的分类精度为:1
9 x4 a- ]& _4 c 可见和没加权重的未改进结果相同,当然我也试过好多数值,如果不当,精度还会下降。$ a: G6 C! e9 O) y" b2 y
! J4 T# V8 O: {9 o, r9 V$ j# k0 d6 @ 把改进方法一和改进方法二相结合的结果:
6 d& l! p& W8 q- @: h% L
/ X& ^! ?% K. X1 ]! z+ N2 z- ?, Z 整体分类精度为:0.90476
. u: B$ S; a4 Y6 H9 C" s 类别1的分类精度为:0.94118& _5 N+ X% W' s; g
类别2的分类精度为:0.76471
6 ?4 @4 G* w5 _0 q! o* S, c 类别3的分类精度为:0.94: `; B; T* u& _& E6 Y8 [6 C; Z
只是类别三的精度相对于改进方法一有所下降,所以看来还是样本数据的分均匀程度对分类的结果影响比较大。9 E8 P1 @! b$ v& l0 f
: a. ]1 v7 t( n4 y) B
下面是程序的源代码:
" v( D- B0 e% J* Y; v/ _ / N6 @# G8 H) o
clear all;; K/ f) Y5 e8 F* _! N
close all;
- k2 [1 W4 r$ l) j) R4 {9 [* s! }- I clc;' i0 R+ G* a) L v8 J! M/ J
load D:\硕士学习资料3\硕士毕设资料\区域生长等分割算法程序\遗传分割\MYGAseg\特征选择\traindata.mat
- A0 q! G3 t) V6 v" n# S load D:\硕士学习资料3\硕士毕设资料\区域生长等分割算法程序\遗传分割\MYGAseg\特征选择\testdata.mat$ V0 g+ b% V0 K! Q! P% _0 @
load D:\硕士学习资料3\硕士毕设资料\区域生长等分割算法程序\遗传分割\MYGAseg\特征选择\trainlabel.mat
. B; o0 }( v; e3 j0 o. y load D:\硕士学习资料3\硕士毕设资料\区域生长等分割算法程序\遗传分割\MYGAseg\特征选择\testlabel.mat- P: B6 f5 r, a( o' h
traindata=traindata(1:99, ;* o% Z. b1 r' l# n4 R
trainlabel=trainlabel(1:99,1);* O1 z: F3 r& `
[predictlabel,acc]=myKNN(traindata,trainlabel,testdata,testlabel,15);1 B( j9 N A: }
8 v$ p; @- U- J/ x) S0 H9 M! B# u % f6 `: t5 S) e: _- Y
function [predictlabel,acc]=myKNN(traindata,trainlabel,testdata,testlabel,K)/ H/ \" J0 R, ?7 p2 E+ L
[mtrain,ntrain]=size(traindata);- c/ x G4 @& U% p7 z
[mtest,ntest]=size(testdata); 6 o# t5 t* l* j n9 z \5 W5 \
juli=zeros(mtest,mtrain);%每一行存储的是一个样本与所有训练样本的距离
$ L. @9 W+ H! w& F% E7 J sortjuli=zeros(mtest,mtrain);
: g+ m3 a/ \& D( I8 S zuobiaojuli=zeros(1,mtest);
5 i: f3 P, w" s6 g7 m/ i num1=0;+ a/ k* z+ W3 w
num2=0;
; A$ K8 I. e* D! {- M num3=0;2 ~! \! V7 |1 `& K. o/ e
rightnum=0;%记录整体分类正确的个数
) G9 G, G. z6 u5 f rightnum1=0;, ]. `0 |' w6 ?9 _( U: ?( ^# c. {
rightnum2=0;
, o# Z( z6 h: k; f+ v rightnum3=0;7 J8 G% ]& ?# a, ~% E+ ~
for i=1:mtest
# ^% C5 y& ^; m1 X9 W for j=1:mtrain
9 x, v/ k! A; ]: X. } juli(i,j)=sqrt((sum(testdata(i, -traindata(j, ).^2));%计算每个测试样本与每个训练样本的oushi距离
1 f I- w! e+ [ end
* G/ u# p* S. i( ] end0 H3 R) Y. B8 d- B% _/ D% p+ V" [
for i=1:mtest7 ^% e/ C$ {; W A
[ sortjuli,zuobiaojuli]=sort(juli(i, );%sort函数默认返回的是由小到大的排序结果
0 a! D- ]1 H- i& ?3 I7 i- A sorttrainlabel=trainlabel(zuobiaojuli);%标签也相应的改变顺序" Z" S/ Q- x1 c9 ^2 I. x1 P2 A
ksortjuli(1, =sortjuli(1,1:K);%取距离和坐标的前k个
; i6 ]' C& H9 Y5 X$ Q! O1 O+ H ksorttrainlabel=sorttrainlabel(1:K,1);
8 I7 ?. P9 U" j+ ] for j=1:K%统计前K个结果中那个的数目多
6 ?4 A! U3 t. I2 e2 |+ |! z B- W if j==1%如果是排在第一位的,也就是距离最小的,那么投票权重加大48 V. y$ j, u# g8 J8 s$ E j# H
if ksorttrainlabel(j,1)==1
" s0 S" |4 Q# W& w2 Q num1=num1+5;
# D; B& F( ~2 p% Y) t; \ end
+ ~- z- U5 x7 C* W7 I. [ if ksorttrainlabel(j,1)==2( `, R4 N/ ?* x' {- I% h8 @ ?
num2=num2+5;8 }' A: m8 _- X! Z
end
" o& u) A6 C/ s% K- h if ksorttrainlabel(j,1)==3! y4 | s3 J/ c6 t% ^9 E" e
num3=num3+5;
3 a1 b2 R* d7 l% e8 r& L- X end
6 K6 ], I' P, w- j elseif j==2%排在第二位的权重加大2,当然也可以自行改变
8 g9 h( K1 f% x0 }$ [6 c3 u! Y9 w if ksorttrainlabel(j,1)==1
. X4 @1 ~. F% q+ k, I num1=num1+2;
* {- }9 Z+ W* B0 p+ Q end. U/ S0 w# o8 X8 a2 \& X) X( l
if ksorttrainlabel(j,1)==2% H5 T; a" A1 B* w# X* {
num2=num2+2;
! r+ ?. ]0 Z4 h: b8 {0 z$ G1 F end
6 x' H7 e; B4 | if ksorttrainlabel(j,1)==38 B6 |- d) m2 j" j- i# a
num3=num3+2;3 q0 ~+ F2 R- ]9 Q' X
end 0 X* {9 s! W" o5 d5 p$ _
else
) Q b6 V' ?; ~$ ~4 `: @ if ksorttrainlabel(j,1)==1' ~. h- B' v6 h! Q5 d% P& |* w
num1=num1+1;
/ E" G0 _; T2 S* g0 A end3 U8 h0 T) s- F5 ~: ]
if ksorttrainlabel(j,1)==2
0 X0 l5 H0 j: i/ ^/ r2 C num2=num2+1;9 r/ m e% M& f8 ^$ M& U
end+ k* f# e- c5 _0 T' c
if ksorttrainlabel(j,1)==3/ \- d1 b* l3 u- _# F+ M5 N
num3=num3+1;
9 B) q! S2 k6 R end p/ d3 n: | I) m
end9 Y' N0 N' |- H0 B# R5 w. V! u
end
, m% Y7 ~' M, h+ c9 M3 f A=[num1 num2 num3];. _4 j: k' ?% J: G. x
Xsort=sort(A);%按照从小到大排序
0 _+ s( J% e0 y* f% u2 G9 I4 p- j if Xsort(1,end)==num1- N+ a, z. x! q! e9 }5 U1 f5 Y
predictlabel(i,1)=1;4 u1 \) E/ x2 r
elseif Xsort(1,end)==num2! F" z8 A8 q3 W: {+ g F, T' W/ B
predictlabel(i,1)=2;) Q: G& z, V$ S; e) r
elseif Xsort(1,end)==num3/ i/ O6 M1 D( _' i& O" t& E3 n
predictlabel(i,1)=3;
( C+ c( E9 O* ?* h, S6 | O/ _ end
6 H( Y" Y( s, D if predictlabel(i,1)==testlabel(i,1)5 l$ O' z+ m9 q r
rightnum=rightnum+1;, b8 c( V" g( z* F6 o: Q
end
8 Z& K4 M4 T% }5 Z) f8 l, F8 e if predictlabel(i,1)==testlabel(i,1)&&testlabel(i,1)==1
( s* [4 a$ A# v, K8 J rightnum1=rightnum1+1;) ~+ |8 e9 y. b+ G4 ^" x5 `
end / G Y# I7 d# j" i6 A" v/ d% h
if predictlabel(i,1)==testlabel(i,1)&&testlabel(i,1)==2
' Y: Z4 g# b! |+ T/ d. B rightnum2=rightnum2+1;
3 Z$ \0 v. g8 S# ^% x3 M end % o0 x6 N" K/ @! p# A" L/ _
if predictlabel(i,1)==testlabel(i,1)&&testlabel(i,1)==38 f- W( K4 M3 Q9 G
rightnum3=rightnum3+1;
M, T" I6 \) K# Z$ o end
9 j; M9 c+ ^( ~
: I4 ^; f V& A7 s! }# i num1=0;%清0
; C: W! L8 L) V. l: X num2=0;
3 }6 W% g) D! i num3=0;" E5 D6 F2 [, W% w8 Q
end; n% S$ F- a0 D! v; P7 V4 Q6 ]
leibie1=size(find(testlabel==1),1);%找出测试样本1的个数
: p3 @+ @: c h* \# z6 h/ d( g leibie2=size(find(testlabel==2),1);
# \' j$ |% L' G% v# U& K; w3 o leibie3=size(find(testlabel==3),1);
; |0 F, g+ J$ Y. I7 U3 T" j acc1=rightnum1/leibie1;
~9 V! z3 l. H! c acc2=rightnum2/leibie2;, e( l9 h( o6 M7 }% B. s5 |
acc3=rightnum3/leibie3;# b8 n' m7 a% E3 H, H* I
acc=rightnum/mtest;%总体分类精度
8 ]9 M1 E0 e( F! u' [2 L disp(['整体分类精度为:',num2str(acc)]);
) ~+ ~, v+ R" M/ n+ v1 j/ g, [ disp(['类别1的分类精度为:',num2str(acc1)]);
: u* G/ K Y- W, ?$ b disp(['类别2的分类精度为:',num2str(acc2)]);9 a# G9 l, U$ N5 F7 n3 i
disp(['类别3的分类精度为:',num2str(acc3)]);( ~5 i" @8 b9 P6 ]
. K, H9 U9 U8 ~* Z' M
+ _/ y8 ]" ~. B5 x+ T* B
K最邻近密度估计技术是一种分类方法,不是聚类方法。9 Z* k9 h! o4 N% D& T6 Z y" o
: Y! R1 b3 D1 x6 E5 T- @8 i; e 不是最优方法,实践中比较流行。2 W8 _3 s6 v5 ~; {0 ]8 F7 _& H
- S/ r# X4 J; s4 U" U0 [, C0 t6 N
通俗但不一定易懂的规则是:, k9 s( z: j; ^$ M
/ ~3 y$ F6 H2 t
1.计算待分类数据和不同类中每一个数据的距离(欧氏或马氏)。
6 R5 D0 C$ a. \# I3 R! g9 b
' ?6 Q6 ^9 t6 c2 k, i 2.选出最小的前K数据个距离,这里用到选择排序法。% K, K1 U# Y0 W
/ w+ ?- x2 x& I+ w: u 3.对比这前K个距离,找出K个数据中包含最多的是那个类的数据,即为待分类数据所在的类。
5 S/ F: f) D+ X+ W2 ], d/ ?; l* |
' b5 ?$ L" G1 ^- G" P 不通俗但严谨的规则是:1 [7 H9 K# C! ^& p$ F
/ U" K$ h- L* d/ x' e& T
给定一个位置特征向量x和一种距离测量方法,于是有:8 k! O' A# t2 S( k! U$ u
/ w R5 U0 ~* c 1.在N个训练向量外,不考虑类的标签来确定k邻近。在两类的情况下,k选为奇数,一般不是类M的倍数。
4 s9 l5 U$ N6 ] K) ~: a # \: k3 \( I# U9 h' f2 k
2.在K个样本之外,确定属于wi,i=1,2,...M类的向量的个数ki,显然sum(ki)=k。2 a& z) n$ g7 K' a
1 z4 P1 {2 U# Y. g% G 3.x属于样本最大值ki的那一类wi。
! V# A0 P5 u$ H' O, [ ————————————————
6 V) W5 |2 b4 |. h5 B 版权声明:本文为CSDN博主「dulingtingzi」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。2 Z$ _/ m) {9 E1 ?" h. e
原文链接:https://blog.csdn.net/dulingtingzi/article/details/51152363
2 X: [8 \4 j) D# Z C8 L7 d8 h
0 x- Y/ Y% q: k3 ]5 `. }( x
6 K* C* q {/ @! g1 G
zan