QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2673|回复: 0
打印 上一主题 下一主题

使用 sklearn 进行岭回归

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2024-3-15 16:39 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。1 A# X. c- q* t" d% A  K7 w0 A
下面是岭回归的关键特点:
6 M1 K/ o" e: E; Y2 |5 g6 B. @* J' i/ m
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。# u& _; p' I& m0 M9 I8 Q
2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。' e0 V9 y0 u) p3 x
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。
9 f% N1 h+ ]1 E9 A4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
* Z  L+ D+ r6 Z, u6 B1 o; h5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。. \9 H8 y" [7 B

3 N: V" P. P! e& @; B5 T3 Y1 g总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
1 @, W" g' G: D9 _$ r* r8 u( z9 Q1 z9 _7 J9 {8 x- A
  i4 [/ E$ b% I( Z& e* N
这段代码执行了以下操作:% P2 B/ f1 W8 N# Q# b- L

! w6 E1 s' a# o4 h5 ^% u1.导入所需库:
  1.    import numpy as np4 `) n2 ^) i\" `* w
  2.    import pandas as pd
    3 e7 e! C+ j9 X8 A- _
  3.    from sklearn.linear_model import LogisticRegression
复制代码
2.定义源数据:
  1.    df = pd.DataFrame({, N\" [4 L. p+ z# f( T
  2.        'good': [1, 1, 0, 0, 0, 1, 1],- {' ^$ S' r; a* r) d6 n6 t  p0 z
  3.        'sweet': [.95, .76, .82, .57, .69, .77, .89],
    - U6 Y) u1 d8 ~+ h) y
  4.        'density': [.876, .978, .691, .745, .512, .856, 1.297],
    : I! v( s; X; m* z
  5.        'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
    1 J7 s! X1 A1 R2 q
  6.        'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],5 ^7 q  ]0 u5 k) I5 T
  7.    })
复制代码
创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。& J2 W6 \3 @" [

; b* M6 s8 Z2 b2 ^3 c' m3.将数据转换为数组格式:
  1.    X = np.array(df[df.columns[1:]])  # 特征集- o1 }! H4 X; G0 p; P% b/ W$ D
  2.    y = np.array(df['good'])           # 标签集
复制代码
4.建立逻辑回归模型并拟合数据:
  1.    model = LogisticRegression()+ _\" V5 E5 p; |: `4 a! v4 C
  2.    model.fit(X, y)
复制代码
使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。" @; B1 ^4 T0 B) \5 O

  [% q7 G' L3 z+ m5.提取模型参数:
  1.    b0 = model.intercept_[0]  # 截距5 v2 F+ h$ ~: P/ u4 B& O* u
  2.    b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3]  # 系数
复制代码
6.进行预测:
  1.    df2 = pd.DataFrame({
    , R* g7 ^4 ?* ^
  2.        'sweet': [.5, 1],
    5 ~2 Q* O\" |! P/ i+ ]
  3.        'density': [.5, 1],- V; Z$ l2 e7 e* u' X: t( `
  4.        'volume': [.5, 2],5 v1 h/ i8 m- d: g. T
  5.        'quality': [.5, 2],
    4 y% a' i1 m, E* n\" h* Q) K# j3 t2 ?
  6.    })
    & Z; b$ O. H: O/ C% B
  7.    model.predict(np.array(df2))
复制代码
使用训练好的模型进行预测,预测了两个新样本的好坏标签。$ F5 X& D& I: _6 Y9 N0 P; }$ o
通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。8 O- e8 ^6 ]$ @
1 {& P! Q& s1 y( h' b: E1 y% Y$ M
' Q; Z, B$ |% B3 q) c

12.logit_regression.py

1009 Bytes, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-10 13:13 , Processed in 0.382597 second(s), 55 queries .

回顶部