QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3930|回复: 0
打印 上一主题 下一主题

[代码资源] 线性回归实例-鸢尾花数据集

[复制链接]
字体大小: 正常 放大

1178

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2023-7-31 10:17
  • 签到天数: 198 天

    [LV.7]常住居民III

    自我介绍
    数学中国浅夏
    跳转到指定楼层
    1#
    发表于 2021-10-23 20:42 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
                                           文章目录) b) F  h1 E) u- |1 X
    一、具体实现步骤+ y5 d' e. A0 s, e
    1. 导入Iris鸢尾花数据集
    7 I0 m5 H  u/ M/ h8 J3 J' D- N2. 提取花瓣数据2 B9 s3 Y1 X' f, x7 w
    3. 拆分数据: J' J+ Z! o! |7 z5 ?  V2 M2 [. i
    4. 训练模型
    ! d: l+ r! ]* E6 x9 l+ K二、可视化结果展示8 [" z" E; R/ @" g/ q% I4 _
    1. 训练集* l; R' r; p# z1 [) T6 y/ s$ b
    2. 测试集. r' s% @, \& _) _! V
    三、相关知识点讲解# w" k3 l5 q' F2 t; [
    1. train_test_split()函数
    % e2 w: c) r  r5 J0 I2. LinearRegression()函数
    2 y1 V9 v" M0 y0 u6 v' F- A3. 散点图与折线统计图的绘制
    5 u6 K& p3 ]+ x这篇文章中,我们要通过鸢尾花的花瓣长度预测花瓣宽度* w7 @" Z8 A* E" |% Q+ F9 e. @

    7 o* x, s7 o% r( c

    1 Z$ z. K5 Y& ]  d# P2 g  p& a环境:Python3.6.5) U! O2 |0 ^+ |, m) O2 Z4 b
    编译器:jupyter notebook% o* A& U4 j! q  ~+ v6 o* ?' [" k
    & c1 ?0 W2 a- U& f$ I( l
    一、具体实现步骤
    / {5 @4 F  @) k1. 导入Iris鸢尾花数据集
    : d/ V( Q1 @3 [! U2 E' PIris鸢尾花数据集共有150条记录,分别是:
    , s/ ?. i, N  \; v50条山鸢尾 (Iris-setosa)
    ; M/ f" o9 `" b0 i. }50条变色鸢尾(Iris-versicolor)
    9 O- M# U: l  }& f  o50条维吉尼亚鸢尾(Iris-virginica)7 v: ]8 @, h6 h* h
    url = "https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data"  
    0 B' I$ B- Y* `, F! |4 G4 W) `8 Z. jnames = ['花萼-length', '花萼-width', '花瓣-length', '花瓣-width', 'class']  , e/ p+ B3 b2 K
    dataset = pd.read_csv(url, names=names)1 _5 H# C5 R( [$ v: R) X5 B. d
    . H; H& v  s" [& X
    2. 提取花瓣数据8 C+ z" b# ?8 O. Z
    下面我们提取数据集中花瓣宽度与花瓣长度数据,将花瓣数据分为训练数据与测试数据,训练数据用于训练线性回归模型,测试数据用于检测我们的模型的准确率。4 S# J8 O! q, }: I  V" K
    2 I0 H# b' k" y6 n1 ]
    2 u  `6 A4 j4 |4 \
    最终我们要达到的效果是:输入花瓣宽度,通过模型预测花瓣宽度。6 O, C5 [" n( f* t2 B; B

    / j. P) M- S0 z  g4 y# `5 q
    / s0 m( V# ^4 Z) t& o2 y2 V. v
    X = dataset["花瓣-length"]7 O0 {& v3 l5 x1 X
    Y = dataset["花瓣-width"]/ }2 G! b1 ?, M4 A5 f3 m$ Z
    X = X.reshape(len(X),1)
    " q, P  S$ C0 N+ ]- v! ?Y = Y.reshape(len(Y),1)3 t) T; }0 y2 E; s& }8 U
    7 c5 n1 B! b7 ]3 Y
    3. 拆分数据
    % y1 z, a. I' y9 f2 B6 U将数据集拆分数据集成训练集、测试集  [. G; N; k1 p8 ]  Y8 a

    " m; E7 e. ~& _: p, _$ R

    . k/ g$ h; K% Z' M7 efrom sklearn.model_selection import train_test_split) L' @6 t& ^7 Q2 |. r6 H# T1 d
    X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=0)# C( w+ a' s5 ~; c* L) G

    : I( @% Y- f; M8 X; C4. 训练模型
    4 R- f- a; D/ c, ~9 {, b这里我们需要将我们的训练数据喂给模型进行训练。
    2 c6 {, h. \2 ~' ]* e* ^1 c
    2 T" N  p3 X9 {5 @0 g5 ?, R

    ' m4 U2 m- v, S. Q" z2 w6 Sfrom sklearn.linear_model import LinearRegression
    % Z) G8 e( @+ n& U0 D7 Vregressor = LinearRegression()$ @& J2 R1 [  V7 T
    regressor = regressor.fit(X_train, Y_train)9 b; i& P& v' z1 h
    & k1 K, i4 U" B
    二、可视化结果展示0 _9 N5 N( l: n9 P  L
    1. 训练集$ x, S1 C5 f6 H4 a9 C* B% `; ?5 O
    将训练集中每一朵花的花瓣数据与线性回归模型预测的结果放到同一张统计图中。
    $ C1 M% D$ a! m6 ^  |9 e5 Y8 P$ b
    : w8 u1 w& \( F  v8 u! t! o: y1 h

    . {  j% L- I& Z$ rimport matplotlib.pyplot as plt/ F- V+ _. z" d; j

      j) [; @+ U" Z# U
    : v+ D+ z/ y( }' w
    plt.scatter(X_train, Y_train, color='red')1 @7 y2 I3 r3 U, F# w3 n1 l
    plt.plot(X_train, regressor.predict(X_train), color='green')- H0 `) M& V: `, E4 |
    plt.xlabel("Iris-length") ; C. m0 R* [& L5 B9 }
    plt.ylabel("Iris-width") 2 N* d( _3 P/ }( S0 P
    plt.title("This is train dataset-kzb")8 Q- b( z) G$ T6 T8 |
    plt.show()
    8 c5 q* q9 u6 v  N4 L2 @! i, }  g9 y5 h" {
    红色的点是训练数据集中的花瓣数据,我们不难看出花瓣长度与宽度是一个线性关系,绿色的线是我们模型拟合的结果。4 \* Y: y+ x$ b1 ~
    7 e! e& X# H0 Q# |! ~) p
    5 r: Z1 R' l9 @" g- I; Y
    ) Y3 U9 m- N! U8 |4 U4 |
    2. 测试集  ], }/ y  H2 k- j& `5 ^9 L; b
    将测试集中每一朵花的花瓣数据与线性回归模型预测的结果放到同一张统计图中。  ?4 A5 ]" }; a! S+ z
    - c, w: q, Q: ^) b! l- @- Q

    1 v0 @0 z( X: @4 f* @. `; Oplt.scatter(X_test, Y_test, color='blue')
    6 T0 R1 j8 z$ `6 g- A2 C4 F0 U! ]plt.plot(X_train, regressor.predict(X_train), color='green')2 H  N. |6 k$ H7 C' _% E/ F- G
    plt.xlabel("Iris-length") 1 i6 _* W0 a4 ?# H
    plt.ylabel("Iris-width") # ~0 v5 \' ?7 v* ]2 y: i
    plt.title("This is test dataset-kzb"); z9 }  q; q% L
    plt.show()
    & J; \+ T: a5 g: T+ I2 {* ?0 L
    绿色的点是测试数据集中的花瓣数据,我们可以看出这部分数据也是符合线性关系的,随着集的增大,线性关系会更加明显。, F9 Z5 E$ D; `

    6 c3 M2 I3 `4 g% Z7 A4 D% Z
    ( M' N3 Q8 K. X& Z

    4 ^$ `- X) S. i三、相关知识点讲解
    . v1 a, h0 d3 n9 c1. train_test_split()函数1 W6 @7 P4 ^9 p7 j
    train_test_split():将数据集划分为测试集与训练集。) p2 S/ Z1 s5 f/ G- u

      N0 e+ O, E7 U0 y" d. B2 e8 ?% O
    4 i" t( j% x3 e9 C0 @7 G. _
    X:所要划分的整体数据的特征集;
    . E. t+ d: t; |1 K/ \% d+ X$ VY:所要划分的整体数据的结果;
    0 \2 W& q: w( E- H' T! U0 ctest_size:测试集数据量在整体数据量中的占比(可以理解为X_test与X的比值);% G- @0 {! V$ {/ `/ j+ [
    random_state:①若不填或者填0,每次生成的数据都是随机,可能不一样。②若为整数,每次生成的数据都相同;/ F9 o4 {% L, x" R, m& t
    from sklearn.model_selection import train_test_split
    + X8 y8 P* P, d# |  nX_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=0)
    6 \$ T/ w3 v+ @$ I) B2 _, O+ X6 @" Y/ k) u- @+ v5 D. Y
    2. LinearRegression()函数% o: _, M0 T% g5 ~& f' |  Y
    sklearn.linear_model包实现了广义线性模型,包括线性回归、Ridge回归、Bayesian回归等。LinearRegression是其中较为简单的线性回归模型。; K( o% \- `! }+ a8 r, P7 b* Q
      s3 C( R3 O$ d; j0 v) P! n& @
    1 p0 E# B; _& D. Y
    解释一下什么是回归:回归最简单的定义是,给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小,如果这个函数曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归。
    & S, \, q5 n! s4 Q8 p
    / @9 V, ?( ~# V3 e( o
    8 `  ~. W" G% s- m0 C# H3 j
    3. 散点图与折线统计图的绘制7 m: _$ B1 l# n* U, k
    plt.scatter():绘画出数据的散点图4 V, x1 F  h7 N+ _
    plt.plot():绘画出依据模型(LinearRegression的线性回归模型)生成的直线3 |' s8 T4 Y! A2 u: s
    有问题请加我QQ32437105608 u2 g" e' s/ i
    $ F8 Y2 k( A0 ~+ ^

    5 j$ D. h, U# {' r. N' a% `  |
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-17 11:47 , Processed in 0.414111 second(s), 51 queries .

    回顶部