数学建模社区-数学中国

标题: 使用 sklearn 进行岭回归 [打印本页]

作者: 2744557306    时间: 2024-3-15 16:39
标题: 使用 sklearn 进行岭回归
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
& _) y! t, A* l! ~2 w3 W" o& p下面是岭回归的关键特点:4 i* Z6 S6 ^1 e' H2 p$ ^; n

( I& l8 Y! r- S* _4 E4 G: p1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。9 N* s, m: q8 H7 M9 u" N% Q
2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。
' W+ k. K/ Y, K$ E# b3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。
) o. m+ z" j) D9 q1 w9 v7 t4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
/ i2 O6 d  @# M5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。
' h$ ?9 [$ Y0 |6 t, R9 ]
7 |* P7 ^+ |( e% [3 a& m- i% N总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
5 i% ~' X+ V4 I8 F$ ^2 t. N+ E# ]2 C
+ w' c* U- x/ m8 o
这段代码执行了以下操作:
; V+ s$ |1 H% ]
1 M2 k7 F. Z8 A& s' e7 w- p' |1.导入所需库:
  1.    import numpy as np
    & I/ g$ a* f! p6 n/ h
  2.    import pandas as pd+ O7 K* X( s, w: _3 ]9 w) @
  3.    from sklearn.linear_model import LogisticRegression
复制代码
2.定义源数据:
  1.    df = pd.DataFrame({
    . G8 B. D5 `$ ]/ ]- w
  2.        'good': [1, 1, 0, 0, 0, 1, 1],
    % Z* n. J& t6 _+ ]: q  L
  3.        'sweet': [.95, .76, .82, .57, .69, .77, .89],/ Q7 ^" ]6 \3 O% A6 B
  4.        'density': [.876, .978, .691, .745, .512, .856, 1.297],
    . }! U+ a! O# q* E
  5.        'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
    6 r) P. }7 h5 f3 b
  6.        'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],3 T% l( Q& z$ \8 P
  7.    })
复制代码
创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。
. d0 g; @' D! @# ^, w9 R, |
9 Y- h; Q& a0 \+ Q/ `* O% A" f3.将数据转换为数组格式:
  1.    X = np.array(df[df.columns[1:]])  # 特征集# k& t& B! o7 n: T
  2.    y = np.array(df['good'])           # 标签集
复制代码
4.建立逻辑回归模型并拟合数据:
  1.    model = LogisticRegression()
    6 r$ Z3 a" _# y; q+ |9 w5 n9 V- |
  2.    model.fit(X, y)
复制代码
使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。
- A# r$ {: q  b) `! s( w2 B% b! Z+ q+ h; L
5.提取模型参数:
  1.    b0 = model.intercept_[0]  # 截距
    ( f. X' C1 o. O* v$ ~
  2.    b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3]  # 系数
复制代码
6.进行预测:
  1.    df2 = pd.DataFrame({" g2 P' R' B; ]% a$ ]
  2.        'sweet': [.5, 1],
    ! Y/ W2 p: R' T( s" Y! a. I. \
  3.        'density': [.5, 1],; K0 c) G; p8 u! w, w. X; a, L
  4.        'volume': [.5, 2],
    ' O% [( t) X0 w' q7 v/ y! c
  5.        'quality': [.5, 2],
    ! D  G/ W4 w# H; t) ]) G& I. i
  6.    }): Q  o4 d& n# t% s4 Y0 o" V
  7.    model.predict(np.array(df2))
复制代码
使用训练好的模型进行预测,预测了两个新样本的好坏标签。
2 X3 |- g; d: a( v( Y通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。! d5 O9 r  c9 x, U; L

% W, ^/ ^. {, i- l/ ]6 T/ [' a6 D# Y, ?8 `

12.logit_regression.py

1009 Bytes, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]






欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5