数学建模社区-数学中国

标题: 使用 sklearn 进行岭回归 [打印本页]

作者: 2744557306    时间: 2024-3-15 16:39
标题: 使用 sklearn 进行岭回归
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。! I0 h4 r+ q1 F
下面是岭回归的关键特点:$ l) Q3 v5 U' ~2 v8 v
; ?7 P" u9 e! S3 g" B
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。
1 s# ^) ]- |( W  i0 O2 U! n' b9 u2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。
. B+ |6 F' O) Q3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。1 a, k0 Q, s% q! }0 _, b
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
0 \$ V0 H$ L) Q# R3 X5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。
& o; ?2 P9 k4 A
- |7 l. |( F2 s- o! H总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。" u+ I! R1 \7 i$ A, a/ A
( h0 _2 @5 M2 f% K# w1 {1 [

! k" Z1 y+ m, f这段代码执行了以下操作:
+ W; }/ u! U. W, i* l
( H+ A+ T2 H6 B- m3 ?( u1.导入所需库:
  1.    import numpy as np
    ; q4 V* p/ }+ q+ _# D& |; F% g
  2.    import pandas as pd
    ) b5 ?1 ^7 \. ~8 d2 i5 z. f) o
  3.    from sklearn.linear_model import LogisticRegression
复制代码
2.定义源数据:
  1.    df = pd.DataFrame({
    " `7 Z& T( d' W4 c1 D+ T/ \. e
  2.        'good': [1, 1, 0, 0, 0, 1, 1],
    * [) [- ^2 U1 F; [1 E8 u" E* v
  3.        'sweet': [.95, .76, .82, .57, .69, .77, .89],
    ( V) }6 x; _7 V, ^
  4.        'density': [.876, .978, .691, .745, .512, .856, 1.297],: e8 \( b4 H* N( j5 r7 O
  5.        'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
    7 R0 r% h* u0 ?
  6.        'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],
    : ~/ n0 w0 f: Q
  7.    })
复制代码
创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。4 E- ?9 o, T5 M# G
* m3 Q& I" c5 t0 \- t" D/ K. @: ?% ~: x4 f
3.将数据转换为数组格式:
  1.    X = np.array(df[df.columns[1:]])  # 特征集
    ( R; D/ C  x: _5 B+ F5 o" P+ @
  2.    y = np.array(df['good'])           # 标签集
复制代码
4.建立逻辑回归模型并拟合数据:
  1.    model = LogisticRegression()
    ' \  p# @# U/ n; N
  2.    model.fit(X, y)
复制代码
使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。
# C, v$ C3 g+ q2 ^# w% [
, s4 x  S$ J- a3 m, l/ Q$ p5.提取模型参数:
  1.    b0 = model.intercept_[0]  # 截距+ [1 s6 ^! \  b( ~& w. u
  2.    b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3]  # 系数
复制代码
6.进行预测:
  1.    df2 = pd.DataFrame({/ h# d/ K8 X3 A
  2.        'sweet': [.5, 1],
    / @5 f9 h$ k# H
  3.        'density': [.5, 1],
    7 F) e: I* y" ]. v
  4.        'volume': [.5, 2],
    6 F  {$ b0 u) \/ v, [. O1 l+ x3 x* a8 f
  5.        'quality': [.5, 2],; Z5 B1 S, r" q; ^, ]1 G; D6 Y. O! o
  6.    })
    ) k8 u2 z* q  `/ b& B2 y4 M
  7.    model.predict(np.array(df2))
复制代码
使用训练好的模型进行预测,预测了两个新样本的好坏标签。
  h4 O! ?+ ~% t% ^& m通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。) m" ~  b7 G. Q0 j8 }( r" H

+ V* Z' q) x* p4 c
; H* [9 p8 W' e- w# ?2 d5 t% |

12.logit_regression.py

1009 Bytes, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]






欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5