: q8 ]+ X$ ?& T* I3.决策树! q2 v; V: B* e( h8 z
这是我最喜欢也是能经常使用到的算法。它属于监督式学习,常用来解决分类问题。令人惊讶的是,它既可以运用于类别变量(categorical variables)也可以作用于连续变量。这个算法可以让我们把一个总体分为两个或多个群组。分组根据能够区分总体的最重要的特征变量/自变量进行。 2 h6 Q8 [2 l( H9 W2 t$ B% ~! I i % k- Y0 Q& x$ u - C" K4 G4 h- t2 @) ~/ [# P6 Y% E4 b" t0 i/ ?# H
从上图中我们可以看出,总体人群最终在玩与否的事件上被分成了四个群组。而分组是依据一些特征变量实现的。用来分组的具体指标有很多,比如Gini,information Gain, Chi-square,entropy。/ H: o% I- A; |* [
* D# Q9 B2 o2 H, n1 q + h m( Y" k; M7 U, `; ~from sklearn import tree 4 x' |, P# ^5 `, _. c4 t2 \3 B- e4 X& k$ A4 N* _1 {
1 U/ E; k7 U2 y; Z$ B2 q f8 o
# Create tree object / B( s3 J8 C5 q) Lmodel = tree.DecisionTreeClassifier(criterion='gini') # for classification, here you can change the algorithm as gini or entropy (information gain) by default it is gini 1 d; x' m: q' \0 r
' l) E' |* B; J# model = tree.DecisionTreeRegressor() for regression & L9 X% p3 z5 `& C/ d) H ; y) f( h7 p5 a1 Y# Train the model using the training sets and check score: X, N. L2 `# g$ a
model.fit(X, y) ( k0 Z* X2 v" l; k% f3 Z( Vmodel.score(X, y) ! |8 ^ W! X2 Y8 x; l9 h1 Z( _, L7 r- e
#Predict Output : s9 j( z8 r/ | J* `- y+ _0 L0 m A* n4 ppredicted= model.predict(x_test) 8 t/ K7 Z+ K: o y; M4. 支持向量机(SVM) 1 r$ F: ~$ Z: n+ v0 m5 B这是一个分类算法。在这个算法中我们将每一个数据作为一个点在一个n维空间上作图(n是特征数),每一个特征值就代表对应坐标值的大小。比如说我们有两个特征:一个人的身高和发长。我们可以将这两个变量在一个二维空间上作图,图上的每个点都有两个坐标值(这些坐标轴也叫做支持向量)。% r. y6 X$ e0 g/ u, d( {& Z
$ F* N" [; f1 {6 n现在我们要在图中找到一条直线能最大程度将不同组的点分开。两组数据中距离这条线最近的点到这条线的距离都应该是最远的。 4 U1 w. M7 u% ]. T% {7 B 7 q8 m [; r# z" A2 I+ Q" B; k( L) g0 A8 k3 r9 r7 X
8 c8 }/ o* ]) R# a
在上图中,黑色的线就是最佳分割线。因为这条线到两组中距它最近的点,点A和B的距离都是最远的。任何其他线必然会使得到其中一个点的距离比这个距离近。这样根据数据点分布在这条线的哪一边,我们就可以将数据归类。/ V$ ] @5 n3 d% {; k# Y9 }( X
\1 r8 m1 s Y) Q#Import Library7 K2 x- y* s6 @1 ^. _% {
from sklearn import svm: O9 A2 m$ N/ n2 L7 t
#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset( J) f* ?7 ~2 {7 X `( F+ j
# Create SVM classification object # p. W3 _8 ?/ H* n& x3 q0 J
; `8 v; L% V3 Z; a- r& B; Ymodel = svm.svc() # there is various option associated with it, this is simple for classification. You can refer link, for mo# re detail., M% H5 h: D/ s2 H3 r4 K }$ K$ e
/ ~4 S' z! _. C# Train the model using the training sets and check score0 S+ r" T4 ?% n6 |) M' x
model.fit(X, y) & N) ~' }, C2 u! g6 C+ emodel.score(X, y) 1 X4 B8 s2 i+ w% |: a% F0 M9 j " R+ |* ^ p" @0 m) B1 y: U#Predict Output0 ]$ ?* m( n) U& A5 E3 a6 |
predicted= model.predict(x_test)0 q3 D& k. `" I/ {
5. 朴素贝叶斯 3 d' C* ^# Z% Z, z7 w这个算法是建立在贝叶斯理论上的分类方法。它的假设条件是自变量之间相互独立。简言之,朴素贝叶斯假定某一特征的出现与其它特征无关。比如说,如果一个水果它是红色的,圆状的,直径大概7cm左右,我们可能猜测它为苹果。即使这些特征之间存在一定关系,在朴素贝叶斯算法中我们都认为红色,圆状和直径在判断一个水果是苹果的可能性上是相互独立的。 ) x; J9 w/ t9 H' U1 i! u' c5 p8 h5 `" V# H- A/ b
朴素贝叶斯的模型易于建造,并且在分析大量数据问题时效率很高。虽然模型简单,但很多情况下工作得比非常复杂的分类方法还要好。 # d5 }0 A2 }& t4 z1 `% U 6 K% U. v% m, H, x& O贝叶斯理论告诉我们如何从先验概率P(c),P(x)和条件概率P(x|c)中计算后验概率P(c|x)。算法如下:5 l; z% T8 r, l! r5 [
: r4 S0 H8 P- j
0 \+ s$ `; j, L: D
P(c|x)是已知特征x而分类为c的后验概率。 ( A5 s" v3 S9 B9 V8 D3 j: ^# }+ G! g* P0 ~: r
P(c)是种类c的先验概率。, C7 S4 \/ Z* T, |- `( X6 w
0 H9 A0 u3 u& }" L1 }. [0 @我们可以用上述方法回答这个问题。P(Yes | Sunny)=P(Sunny | Yes) * P(Yes) / P(Sunny)。. K4 E/ o5 c) S7 |
; w2 V5 V7 W: A. |7 f) l% |4 e
这里,P(Sunny |Yes) = 3/9 = 0.33, P(Sunny) = 5/14 = 0.36, P(Yes)= 9/14 = 0.64。4 K1 v- O6 Z3 ]+ ^) s
! ]6 u" D: u5 B$ x
那么,P (Yes | Sunny) = 0.33 * 0.64 / 0.36 = 0.60>0.5,说明这个概率值更大。 8 a* k I) _) U, s2 [( i0 z) L0 B- F. W# Z
当有多种类别和多种特征时,预测的方法相似。朴素贝叶斯通常用于文本分类和多类别分类问题。7 C' C, y9 W2 ]9 V" [, _/ \
2 H9 K/ z$ q M5 R9 V: m8 a! u) b
#Import Library% F( U' p2 t2 T1 H x. e; J' A
from sklearn.naive_bayes import GaussianNB6 H d6 q! ^2 q4 K3 j' U
#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset - e2 D& N% C/ A8 k- A; E, H$ L% w; K8 C+ N& F
# Create SVM classification object model = GaussianNB() # there is other distribution for multinomial classes like Bernoulli Naive Bayes, Refer link* Y5 a+ N) G' w6 u! p7 ]' o
! E1 V6 P+ |4 y' _& {
# Train the model using the training sets and check score X2 G$ R) r- g7 v+ j. r- rmodel.fit(X, y) $ h6 V0 Q" [/ q# i/ \4 P / |, ]3 D0 c* H1 V0 p4 v#Predict Output5 N- r* _ P& o0 u( k
predicted= model.predict(x_test) & t0 C d3 w6 ? T; E6.KNN(K-邻近算法) % U6 u9 M( |; m% k# K% J这个算法既可以解决分类问题,也可以用于回归问题,但工业上用于分类的情况更多。 KNN先记录所有已知数据,再利用一个距离函数,找出已知数据中距离未知事件最近的K组数据,最后按照这K组数据里最常见的类别预测该事件。 8 W D$ V3 E9 j. z2 @. J2 F& @ , t" ?! X7 q9 u. q) y; ]! |9 j距离函数可以是欧式距离,曼哈顿距离,闵氏距离 (Minkowski Distance), 和汉明距离(Hamming Distance)。前三种用于连续变量,汉明距离用于分类变量。如果K=1,那问题就简化为根据最近的数据分类。K值的选取时常是KNN建模里的关键。9 y: B$ F6 l) s* v
7 n) C2 z9 x' X; R) a$ S1 D* g! U" w
# G; \1 Y+ v* b" [ gKNN在生活中的运用很多。比如,如果你想了解一个不认识的人,你可能就会从这个人的好朋友和圈子中了解他的信息。 & d2 z% K/ w$ D2 a3 G: n8 o* E5 A' v
在用KNN前你需要考虑到:/ c$ S9 F c0 Q- e V/ Q
9 B- H" O6 P7 f8 ^+ Q
KNN的计算成本很高' Y- u7 ?* N1 ~$ Y5 E' `. E
1 @5 V5 H7 i" m; \) r2 @0 g# ^* y
所有特征应该标准化数量级,否则数量级大的特征在计算距离上会有偏移。3 A1 h( \+ L% Y, `6 M8 @
& B! i3 {8 _. q' P% P3 f# j
在进行KNN前预处理数据,例如去除异常值,噪音等。 # f* P) H$ J3 j 2 m8 M; I& S) B: D) o1 B& T% d#Import Library # d. F* c* z5 _% q" ~4 R* M6 Yfrom sklearn.neighbors import KNeighborsClassifier 1 }0 C4 V/ k5 }& D( x6 J! n# e; e6 s
#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset- I4 @" ~* N3 F- [) Z! c4 h, \
# Create KNeighbors classifier object model # V$ t) @2 g# E ' ~% n( `0 B1 ]; X" X2 \KNeighborsClassifier(n_neighbors=6) # default value for n_neighbors is 5' W5 r( O' N% s+ t+ \( d
' \( f! |$ b: F+ F, }# Train the model using the training sets and check score% G4 x9 W& a# p8 Y; t+ g9 V
model.fit(X, y): G4 m z) `. z: T1 T
) y: ^% z w! ?6 l6 o9 G9 V
#Predict Output 3 O; Y( _2 ~6 y/ t) _predicted= model.predict(x_test) - i F' q9 R8 }! T9 i7. K均值算法(K-Means) ) z% n& A( L# w4 v- g9 A$ N这是一种解决聚类问题的非监督式学习算法。这个方法简单地利用了一定数量的集群(假设K个集群)对给定数据进行分类。同一集群内的数据点是同类的,不同集群的数据点不同类。7 J) l7 H: ^0 ~" j o! |7 u2 N
5 F1 p$ J- ^! d# T) r( @还记得你是怎样从墨水渍中辨认形状的么?K均值算法的过程类似,你也要通过观察集群形状和分布来判断集群数量! ) Q- u( I8 ? Z! r9 E0 u, Y- L) B! y- }4 I3 z0 O2 o! R) w- x
0 j5 }+ V1 R! j9 ZK均值算法如何划分集群: " Y8 H! Q) s, v6 B9 c ( w8 K+ n: l9 w0 p 2 x* U& r2 s8 K 6 R4 A+ p: B L: u1 d从每个集群中选取K个数据点作为质心(centroids)。9 i8 V" t7 Z& C
0 }8 E2 @3 G: r+ w, X将每一个数据点与距离自己最近的质心划分在同一集群,即生成K个新集群。 4 X5 q+ t+ [8 X3 `, \% g `. E- K3 b2 v% S' T' I$ K8 E
找出新集群的质心,这样就有了新的质心。 0 x7 h# Y f* M0 L- y+ l " ~5 G* M6 d8 x$ m" h) I重复2和3,直到结果收敛,即不再有新的质心出现。* e6 V& `. Z1 [
5 H9 @8 x! m) H, D* |
* _! w- W; O `7 x/ d7 C$ a" ?怎样确定K的值: 1 ?% \: v9 D! x5 J, ]4 w6 {0 R 4 N! U9 K/ t& \) D7 O( [4 V1 g+ z, T$ x& L如果我们在每个集群中计算集群中所有点到质心的距离平方和,再将不同集群的距离平方和相加,我们就得到了这个集群方案的总平方和。: V& t e" i. W% k3 F5 R
+ s7 M f y$ N
我们知道,随着集群数量的增加,总平方和会减少。但是如果用总平方和对K作图,你会发现在某个K值之前总平方和急速减少,但在这个K值之后减少的幅度大大降低,这个值就是最佳的集群数。) K7 B9 z7 ]$ e! i4 c; z' Y( R$ n
! T( e. M$ N, }5 t( u% @% y
2 t) K2 \% r- h1 ^$ A& \
#Import Library8 }0 b3 S9 o! i1 Z2 z! A
from sklearn.cluster import KMeans0 `; K0 K) h3 o5 E3 J: g8 E
! r0 n. Q* V" S2 y& A
#Assumed you have, X (attributes) for training data set and x_test(attributes) of test_dataset + ]" v& \' P0 X: B }6 l# Create KNeighbors classifier object model 3 V, W8 ?& ~5 I$ }# v" m
k_means = KMeans(n_clusters=3, random_state=0)4 g0 B b0 w' d1 k, [
9 O# l; _% a! g" u" H# |: X# Train the model using the training sets and check score z2 k: w1 @% C4 Y$ @5 t1 K' zmodel.fit(X): w# V. n: l5 R+ U3 q
! K5 J1 N: ?1 `; V8 i) I8 \
#Predict Output : D7 O5 _$ q7 {1 w5 @% b1 rpredicted= model.predict(x_test)" z/ c5 x! C- C3 V/ L
8.随机森林 ! D/ H3 `* t1 a随机森林是对决策树集合的特有名称。随机森林里我们有多个决策树(所以叫“森林”)。为了给一个新的观察值分类,根据它的特征,每一个决策树都会给出一个分类。随机森林算法选出投票最多的分类作为分类结果。 1 X# M4 |/ c6 h6 a9 c . R# W4 s. c2 n$ o2 E$ [% k怎样生成决策树:3 A. [# d! f' _% u+ _7 e T5 N
9 m8 a3 R0 D1 M% H5 x5 {8 E如果训练集中有N种类别,则有重复地随机选取N个样本。这些样本将组成培养决策树的训练集。 s. `9 ?, Y6 k M/ N0 e( h
0 J" n8 e* O g/ b% ~
如果有M个特征变量,那么选取数m << M,从而在每个节点上随机选取m个特征变量来分割该节点。m在整个森林养成中保持不变。 : U" f- R2 A& [9 \ 3 a1 Z1 ?5 f3 {9 \7 N: n9 ~) W5 @每个决策树都最大程度上进行分割,没有剪枝。% ]3 c- ]% ~. i
# g8 K( _+ R% F: l6 n
#Import Library; C5 ]; [/ s; ]1 o* r5 ?
from sklearn.ensemble import RandomForestClassifier ' V( r! V, z0 L$ ]$ t#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset $ t+ C: o( |" `4 x1 r4 f: ^; g5 Z3 l0 }: o& d
# Create Random Forest object) y/ j* b' r1 x" Q3 u! a9 O6 ^
model= RandomForestClassifier() - n0 B- Y7 l: u+ s5 Z. o& V' j: w4 m2 h2 m- H# D1 K" u9 G/ I# l
# Train the model using the training sets and check score, X. s' w7 D& @
model.fit(X, y) - B6 X/ H; l2 ]$ G9 y! B/ X ~% a" T: s: i* U+ Z
#Predict Output- U! u' D* ?8 }, F
predicted= model.predict(x_test) ( a) ?- F# D' n& y9.降维算法(Dimensionality Reduction Algorithms)) t/ I$ Y( J+ T9 r
在过去的4-5年里,可获取的数据几乎以指数形式增长。公司/政府机构/研究组织不仅有了更多的数据来源,也获得了更多维度的数据信息。 2 h7 x0 ^9 F/ f9 a9 g I8 b) k' f5 i
例如:电子商务公司有了顾客更多的细节信息,像个人信息,网络浏览历史,个人喜恶,购买记录,反馈信息等,他们关注你的私人特征,比你天天去的超市里的店员更了解你。 ' _7 p) C) l# K# W" D : _. {2 a; h, @" _" F2 Y% U作为一名数据科学家,我们手上的数据有非常多的特征。虽然这听起来有利于建立更强大精准的模型,但它们有时候反倒也是建模中的一大难题。怎样才能从1000或2000个变量里找到最重要的变量呢?这种情况下降维算法及其他算法,如决策树,随机森林,PCA,因子分析,相关矩阵,和缺省值比例等,就能帮我们解决难题。 + I. p" r* G4 x% i) ]( a# M % k* u& g) x: h+ L" q- L* Z/ c- G6 v / r; @' O9 L: a#Import Library " z( f" S# z7 i) c) \6 xfrom sklearn import decomposition : I+ X" X' A$ j6 k) C. x% U0 B/ o#Assumed you have training and test data set as train and test $ Z# Y# ^" D) Q0 j# Create PCA obeject pca= decomposition.PCA(n_components=k) #default value of k =min(n_sample, n_features) ; g0 x8 s2 b* L+ d! u# For Factor analysis6 l ~ e: s% z% H
#fa= decomposition.FactorAnalysis()$ Y% R+ v+ \/ c6 y
# Reduced the dimension of training dataset using PCA 0 \7 I7 a# j7 H1 p. [. X" q# ?5 v$ f# x, W% o3 B* X9 }$ K
train_reduced = pca.fit_transform(train)0 e/ P& @. s! D9 k" j
' Q% g: w& T4 q2 e1 F, g) p
#Reduced the dimension of test dataset 6 D0 j, t$ Z( z* ~- P* u ^test_reduced = pca.transform(test) ! x1 c& P) |* S3 o/ x( n10.Gradient Boosing 和 AdaBoost 2 e {1 `5 f- f0 z6 p# u' ~GBM和AdaBoost都是在有大量数据时提高预测准确度的boosting算法。Boosting是一种集成学习方法。它通过有序结合多个较弱的分类器/估测器的估计结果来提高预测准确度。这些boosting算法在Kaggle,AV Hackthon, CrowdAnalytix等数据科学竞赛中有出色发挥。$ U! S: ^! D5 t3 [. e1 p0 Q
' h- w5 r4 r$ V; f/ }! U#Import Library/ K% T$ @) | o, ]; o
from sklearn.ensemble import GradientBoostingClassifier( r7 k2 }9 x5 G1 v3 t
#Assumed you have, X (predictor) and Y (target) for training data set and x_test(predictor) of test_dataset * U* Y, G+ ^. H0 _# Create Gradient Boosting Classifier object ' A6 b( { j+ [2 g/ I, jmodel= GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0) * j; |2 C. h( t. l! i3 P w: g: Y' z; Q7 u
# Train the model using the training sets and check score8 J* [/ G* h* S$ E U
model.fit(X, y); G7 l, M& i9 S4 p6 m+ P' B8 x
#Predict Output + j; `4 u( g4 k; V/ ^! i- r0 G" g$ G9 Ppredicted= model.predict(x_test) : n. g3 n: i d& j; l, @ gGradientBoostingClassifier 和随机森林是两种不同的boosting分类树。人们经常提问 这两个算法有什么不同。 % F1 q4 Y% E1 U& f$ }6 S. }8 m! S
原文链接:http://blog.csdn.net/han_xiaoyang/article/details/51191386. d1 G) Y' o; A" C3 t. `
———————————————— ! V6 i" {' R% O: L5 i! M; R% }: u版权声明:本文为CSDN博主「_小羊」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 ' d- ^! J9 C$ z9 x7 I+ e. i原文链接:https://blog.csdn.net/qq_39303465/article/details/79176075 , S% C0 ^0 Y3 i& O1 S* a - W# T( u ]4 `! _+ w U. ?0 l t( R! Y7 a$ u6 B& w