- 在线时间
- 479 小时
- 最后登录
- 2026-4-13
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7789 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2922
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
9 P" d! |. F* j" @5 d下面是岭回归的关键特点:1 x- L5 x& {1 d5 L3 Z# Y/ q
5 w% m( ~/ H- j' c$ Y
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。
0 }1 e3 I8 I" ?1 _1 G; A2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。1 t" I) s- a7 W- o6 ]
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。
2 x3 s5 U9 ~" I/ {# I8 s6 {4 o4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。1 W/ v6 L0 T7 ^* a/ l4 e2 c0 l+ @
5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。
8 n; \8 O. H& ~+ o: V$ y- U: n3 v8 b; Y' m' c! B
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。/ [0 q5 g5 o. }
4 K6 c; ^' Q2 D$ Y) o
# F; k* }2 o% J W R这段代码执行了以下操作:
/ A0 m: M5 w/ {9 P- t2 m
% f$ m" y x/ O) Y+ p' n# z5 [1.导入所需库:- import numpy as np
b; e( u\" e9 _2 w$ K8 Y+ G - import pandas as pd
6 d) p0 ` o9 Z( ^ - from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({+ X: @$ o\" d0 W% c, T6 g
- 'good': [1, 1, 0, 0, 0, 1, 1],
1 n8 T! i+ o* ^! v( M - 'sweet': [.95, .76, .82, .57, .69, .77, .89],
3 K/ p& Q1 m$ C\" l9 [/ A - 'density': [.876, .978, .691, .745, .512, .856, 1.297],4 s0 X2 X5 \# C- u7 @
- 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],! [6 U* _- X\" S' Q2 Y* W6 _* m
- 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],
; T4 i1 p7 r+ Q5 D. p - })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。
& R$ o% _5 e, t6 V3 r: p1 W; i, U
3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集9 [4 M' z- K1 A# S2 ~0 J/ G3 f
- y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()\" i6 |( J& J* `/ n Q
- model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。. _, m7 L# h/ L1 X% h- P" a
5 q, c* Y# }! s6 m+ A$ G) ?* y3 Z
5.提取模型参数:- b0 = model.intercept_[0] # 截距
5 [4 p' K( p! A% ?, ]8 T; L - b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({5 O$ m. d3 }0 q& ~- W6 k
- 'sweet': [.5, 1],1 a& @' R5 O3 O8 S6 j7 R
- 'density': [.5, 1],
( I, A2 a m1 g: ~% s - 'volume': [.5, 2],
2 R; @4 v6 E/ b0 d: C I - 'quality': [.5, 2],
3 [6 g7 N+ z7 T' u) o- _0 C3 X$ a# f - })
4 C' G1 `. f! I4 ^. K2 W - model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。( [, n5 y& \1 o: _) H& Q# U* P
通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。+ E1 D- g+ m( ~0 G/ b/ z
, E+ o2 D* o* P6 n6 f) F
3 c5 N: @7 T& T$ [6 A |
zan
|