- 在线时间
- 472 小时
- 最后登录
- 2025-9-5
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7687 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2887
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1161
- 主题
- 1176
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
; [* ~# ~) |* f! z7 m- ^+ C2 |下面是岭回归的关键特点:
3 d" h6 p: l; H5 U$ B \) C. B; d9 M7 w9 d8 k/ H/ M4 v8 R/ [
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。5 h' r. V& `; Z. t
2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。4 I% m) U& E1 s% i
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。" C+ @3 ]6 G: x1 v2 T) a0 q
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
3 W; }0 z# L! i$ q, d l5 g y7 `5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。* T9 V, U. R8 p' e' I1 f
: U# B7 {9 L) U: l$ a
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
* |/ ~% @3 |% k0 z) A
5 g0 t/ w: v7 A# _! q& F+ Z" _, _2 C6 V: L" F# g
这段代码执行了以下操作:
# A. P# S! g5 T' k0 h+ Z, t) w. y4 t9 Y7 E8 C+ I' A i3 m
1.导入所需库:- import numpy as np
* j9 [+ p. e: n# o$ ]& a. u - import pandas as pd. L/ N* L9 |8 p6 s m+ x- y\" d
- from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({& {5 S& S' k9 N f: t
- 'good': [1, 1, 0, 0, 0, 1, 1],\" H4 _4 A1 l/ @5 { T; z, K
- 'sweet': [.95, .76, .82, .57, .69, .77, .89],
\" S8 B- s6 M' ^ e8 I* y4 X4 m - 'density': [.876, .978, .691, .745, .512, .856, 1.297],8 Y# R k( p- l. h: C* q
- 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],. f, A\" i% O- K5 y
- 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],7 c- M: ?& g0 M/ v9 h- R
- })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。$ E/ H! U% P. e0 k/ B& k& \# g' [1 {
# Z# K2 p/ O6 s4 P0 a
3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集 ^7 F* ~* M& v0 W4 w G+ y3 q! K
- y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()9 A1 K) N! J2 ]$ u
- model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。0 H+ c$ D" K: X$ F2 z
, [0 n- K1 Q1 T! A5.提取模型参数:- b0 = model.intercept_[0] # 截距
) E9 w- x% v* l9 r - b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({
$ |! v8 [+ c5 R& _ C( I\" s6 R - 'sweet': [.5, 1],& r' N& R% o0 H( @) O\" \\" w
- 'density': [.5, 1],* b6 K; j! }2 }* ?7 v% O1 {! C
- 'volume': [.5, 2],* z- r5 O\" l# Z( g3 b/ C
- 'quality': [.5, 2],6 a' y2 m0 e. W( ]( p( R
- })7 j4 m, O( i# |, ^9 G4 ]\" a
- model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。
1 o" E/ `# a: ^! w9 Q: X% s Q& W通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。' z' S- t& G0 V9 h
/ q7 H2 u: X& V; a7 e, {$ x- v8 M7 x+ x/ N+ X& H4 a
|
zan
|