- 在线时间
- 472 小时
- 最后登录
- 2025-9-5
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7687 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2887
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1161
- 主题
- 1176
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。3 u3 V& c8 d2 @# o) V: f
下面是岭回归的关键特点:, [+ g: C! j6 R7 t% O8 p
9 E) y1 ]7 a [7 o1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。
4 B0 n W$ Z8 Z4 v2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。, A; o" T+ g: \* D9 D& Z5 a6 o
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。 A, e( V+ s( {2 d3 d' D, H; V0 x& u' I
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
9 X2 J8 R4 P; O% ~" I6 L1 y5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。
! P6 f9 X$ S& M' V3 s+ \9 u4 W; N+ g O3 K. d. w& q: }
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
7 R/ [8 o, Z9 ~. W6 v6 h, T
! D4 `" a! p- y8 }+ x+ E1 U; ^$ Y) c5 {
这段代码执行了以下操作:8 O3 G" M4 z P$ w! N# e
& Q1 \, Y) j3 z4 r
1.导入所需库:- import numpy as np
- M9 R5 Z7 k: U: p - import pandas as pd4 U* W2 I: s: x/ l\" [) b% t+ ^5 D
- from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({
8 m7 g0 f. Y( L$ s! ~, G2 r - 'good': [1, 1, 0, 0, 0, 1, 1],% C; }5 N+ W( N( s' [: l8 z9 Q
- 'sweet': [.95, .76, .82, .57, .69, .77, .89],+ E; {7 j' a) t4 T% P: P
- 'density': [.876, .978, .691, .745, .512, .856, 1.297],
! [' p) ?7 z- B O: H8 T - 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
* B1 O; H- s O - 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],
1 E$ u+ Q: W. ^ - })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。2 f; a6 P; r8 G, S7 Q/ X' b( ]
; d7 \+ d8 c9 C' S x3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集
. B3 l. _- v' w9 d% Q+ s - y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()
/ Q\" {. X# R3 N$ r. ~ - model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。8 O" S! g2 b- d
( g% H I8 U* [9 V: @3 X; ^* l5.提取模型参数:- b0 = model.intercept_[0] # 截距
; K) B4 Y( s) ]. w - b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({
# d0 w8 ?% B$ d! N. w - 'sweet': [.5, 1],+ D1 C1 a9 C* \+ J
- 'density': [.5, 1],; p\" [3 |) ~. c4 B0 p2 J
- 'volume': [.5, 2],
) U- w/ v) r! R2 v* w! @/ X\" N* }: D - 'quality': [.5, 2],$ x0 ]% A& R# a1 Q% q
- })
5 k- B9 ^( g2 a2 P - model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。) u' b3 L7 g" U% W R) [7 z
通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。, x3 z/ |6 `$ h! D4 x0 x# B
7 T8 R8 E5 L" O% `' S4 s1 ^) Y6 x3 |# g) U; X* V7 t
|
zan
|