- 在线时间
- 514 小时
- 最后登录
- 2023-12-1
- 注册时间
- 2018-7-17
- 听众数
- 15
- 收听数
- 0
- 能力
- 0 分
- 体力
- 40215 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 12776
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1419
- 主题
- 1178
- 精华
- 0
- 分享
- 0
- 好友
- 15
TA的每日心情 | 开心 2023-7-31 10:17 |
|---|
签到天数: 198 天 [LV.7]常住居民III
- 自我介绍
- 数学中国浅夏
 |
文章目录5 g- B4 N5 S8 O' e" ?
一、具体实现步骤
# L7 E% Q! j' _. @+ v1. 导入Iris鸢尾花数据集
. J% k' A5 G' [5 v% K* E2. 提取花瓣数据
% Z+ j/ a4 @, ]1 Q7 M8 O3. 拆分数据! K& o, i) n5 s( A6 P1 V- q
4. 训练模型
$ ]/ h/ t, Z8 A. r8 M二、可视化结果展示 F3 n$ k# T- r- d& A. P
1. 训练集" N, m7 I$ C/ w/ A$ I, c3 K
2. 测试集
2 n5 V* C6 i6 X三、相关知识点讲解
+ H U( U' }6 f$ v( z0 X1. train_test_split()函数. l% C: b( V1 C+ c: X6 V4 y3 ?( j6 J" n( T
2. LinearRegression()函数
% O: ] f1 b E2 `; Y4 j: U3. 散点图与折线统计图的绘制2 f6 J% H3 m* V
这篇文章中,我们要通过鸢尾花的花瓣长度预测花瓣宽度
5 u) C, n4 N- Y8 o' z: d" b- C& U1 Y
3 w: E3 f- t' y& D环境:Python3.6.5
6 H! g7 o9 j; s+ O% R& h5 l& P1 Y编译器:jupyter notebook
( T, n! Q* {, h: p) U5 T3 v/ C. d
4 ~8 U2 {5 O! C4 A( C4 w一、具体实现步骤( l/ G" J: k' V9 u, `2 Q
1. 导入Iris鸢尾花数据集
) P8 x7 r' \, _3 ?0 e2 aIris鸢尾花数据集共有150条记录,分别是:: i& h7 K1 t: c: `4 T
50条山鸢尾 (Iris-setosa)
; l0 e! h) f' Y0 _9 s50条变色鸢尾(Iris-versicolor); c9 F% T! L$ b0 H
50条维吉尼亚鸢尾(Iris-virginica)
/ `9 U0 j$ o* v; vurl = "https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data" + l6 v0 w8 a2 d, L) m8 D
names = ['花萼-length', '花萼-width', '花瓣-length', '花瓣-width', 'class']
2 e1 F, ~# I0 ?$ S2 fdataset = pd.read_csv(url, names=names)& X V1 ?# L1 y N/ ` c8 q2 Q
" o3 |9 S( S& i) D" J Q+ w2. 提取花瓣数据5 s8 @+ d6 V& j0 Z6 @, C/ l( u
下面我们提取数据集中花瓣宽度与花瓣长度数据,将花瓣数据分为训练数据与测试数据,训练数据用于训练线性回归模型,测试数据用于检测我们的模型的准确率。
; y1 V) z0 @# Y6 A5 o. e- s; {
* R$ P# L8 C/ \3 U* p
, {; M) R: y& g2 M5 x5 F5 _最终我们要达到的效果是:输入花瓣宽度,通过模型预测花瓣宽度。6 L/ o, ]( C& E% g
# w6 d0 @8 ]9 i! X2 h- V8 l4 n* \
, f, v. P( i9 _8 h; cX = dataset["花瓣-length"]1 A5 F; X: o& W9 T; j* L
Y = dataset["花瓣-width"]
5 d! h8 w6 S2 BX = X.reshape(len(X),1), v$ w/ ^/ o" i
Y = Y.reshape(len(Y),1)
8 O9 H) E- ]1 v
/ D) F' A+ c( A# N3 Y3. 拆分数据
4 K# g5 V& h3 P! ^5 W; X' Q将数据集拆分数据集成训练集、测试集
' m; h p0 |! y v. \/ S7 p& J
; V& U; o: \; c) S8 J$ V* }
1 H4 L+ n) b. {+ dfrom sklearn.model_selection import train_test_split
5 G& s+ Y& N) F+ vX_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=0)/ k; o2 Y6 Z2 m5 @
7 x' r& k' U, \5 W6 B* Z
4. 训练模型4 r& [( M& l8 D+ t) g0 @
这里我们需要将我们的训练数据喂给模型进行训练。
6 J/ F3 u% t! U7 @8 ^8 d/ D, S- S5 ~
H" K7 v3 X; D& L' y% I. [3 Lfrom sklearn.linear_model import LinearRegression6 \, i* |& w- Z7 I
regressor = LinearRegression()
0 v* Y6 L% G9 I8 O8 P% H: n6 Xregressor = regressor.fit(X_train, Y_train)* y5 y9 r6 U l4 d* ~( M6 e( ?, l
8 A9 N- {8 J% _/ b二、可视化结果展示
& ~7 ?5 L" @2 L. I( q" v, f) q1. 训练集, P3 L' D/ b1 x4 W5 h- u
将训练集中每一朵花的花瓣数据与线性回归模型预测的结果放到同一张统计图中。& ^0 r, l! n" g# N/ A
" b8 ]# `( @# R: l+ q6 Q5 }6 {! n
3 B5 Q- F4 U/ u1 G( E
import matplotlib.pyplot as plt7 S6 A3 j) \8 U9 x
* q& C: x( F2 x3 i$ t/ d! p
" R) N+ x; h- D2 P5 Rplt.scatter(X_train, Y_train, color='red')
/ ^7 v! c- @$ B0 h, }+ dplt.plot(X_train, regressor.predict(X_train), color='green')$ ^ m# `. _5 x2 c2 W
plt.xlabel("Iris-length") & ~& i" Z- e- r* }2 N0 C5 O0 m* t
plt.ylabel("Iris-width") % s: E" ]+ ~9 S1 b7 s
plt.title("This is train dataset-kzb"); J! s7 y: g0 ~. B. ~
plt.show()
7 y& F7 Y0 l/ X9 i3 C
S- l; \7 v# r" }( k3 H* b红色的点是训练数据集中的花瓣数据,我们不难看出花瓣长度与宽度是一个线性关系,绿色的线是我们模型拟合的结果。) @- ?3 @; n3 h U3 I
4 ?1 }% W0 s" o2 L
' |; l9 c7 ~9 P& G
6 r* ~) a& h! d( G( \; x; G
2. 测试集
' j M, g$ R' c1 |; X. D将测试集中每一朵花的花瓣数据与线性回归模型预测的结果放到同一张统计图中。9 w- ^& Z& B) }4 p$ F" r
) r$ d# l& s+ K& i, _/ u
" n$ E% ]1 M# z! u4 g# f+ r \4 a6 y
plt.scatter(X_test, Y_test, color='blue')
1 |- m/ g7 o' } X( v' R- S4 f# U3 m, rplt.plot(X_train, regressor.predict(X_train), color='green')7 G) t3 z+ R2 g4 ?& W
plt.xlabel("Iris-length") 5 @% f; _8 p1 l. w5 {- L9 x
plt.ylabel("Iris-width") ' ~, q5 @0 N+ }
plt.title("This is test dataset-kzb")/ Q* u" Q2 ]/ ]0 }$ D
plt.show()! y7 @" E! b% e g3 G* k+ B
1 ^; h$ o2 X' V绿色的点是测试数据集中的花瓣数据,我们可以看出这部分数据也是符合线性关系的,随着集的增大,线性关系会更加明显。
! o3 T+ S& w! h( c' c + ]; L; Q5 _: N3 q
2 Q6 l/ x- a: e) [
7 Q/ g- w$ q( `* P, Q
三、相关知识点讲解7 k5 t1 Y5 w+ v% U+ g
1. train_test_split()函数5 m4 X; g# Y$ v& W8 t0 Z* e8 F
train_test_split():将数据集划分为测试集与训练集。
1 @7 `! s& q, t- u3 R, @' U) N8 H1 ]1 _& W3 r7 G( L
( `+ k8 K+ Z4 ?) k, K, LX:所要划分的整体数据的特征集;
0 a3 x) H" G/ H j$ UY:所要划分的整体数据的结果;- E5 h5 ~3 Z n) P- I
test_size:测试集数据量在整体数据量中的占比(可以理解为X_test与X的比值);0 j, C& \( @8 b" u6 M( o* T
random_state:①若不填或者填0,每次生成的数据都是随机,可能不一样。②若为整数,每次生成的数据都相同;
/ j! `! G, A9 L3 y/ |/ _1 Efrom sklearn.model_selection import train_test_split( A, `* V& f: S: K
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=0)' S& d6 R$ }1 \( X
, Z/ @9 Q3 ~; Z, f6 Y E2. LinearRegression()函数6 e% Y" W4 _/ H# n6 `4 t& @
sklearn.linear_model包实现了广义线性模型,包括线性回归、Ridge回归、Bayesian回归等。LinearRegression是其中较为简单的线性回归模型。
7 j# j( i! Q, w+ J* o
$ |( m$ q% Y: u9 W9 t1 m6 l
, G; ^$ \! N1 u u8 j) }: Q解释一下什么是回归:回归最简单的定义是,给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小,如果这个函数曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归。
% F' ?) L3 c8 Y& P$ O4 I; o9 p5 z
: W; R8 u) w9 }, `( ?/ `3. 散点图与折线统计图的绘制+ ^6 }+ _/ a) I9 R
plt.scatter():绘画出数据的散点图
$ H: i) {6 E8 o7 w K7 I! rplt.plot():绘画出依据模型(LinearRegression的线性回归模型)生成的直线
4 ]9 Y% L& ?% S7 O3 {) B+ `6 m有问题请加我QQ3243710560+ N, V5 V: p' E& f
8 a9 V2 y8 R8 J7 Y( v* O% m* v' C) H) k. S* y9 B
|
zan
|