- 在线时间
- 478 小时
- 最后登录
- 2026-4-9
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7788 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2922
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
2 H3 }& ?) ?: L$ t, m5 @8 S下面是岭回归的关键特点:5 @ `8 B$ W1 G# `4 ]- _
0 M) j5 x# S) j# u2 k1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。
. d6 q. E& R* s% E2 [2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。- j+ j+ j6 F+ B# m# K$ s/ \8 ~
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。4 G: s( K' U/ v& J+ _
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
9 l2 g% V* G7 x5 Y# ~ _! g5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。4 I$ x! h' e+ x# T. j$ v
5 c5 h( m' ?- @
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
( W* f% \ y5 f4 p3 r- Z6 S: o: H+ u! J2 Q7 u* S% {
; `( q% I4 }! v% `2 V
这段代码执行了以下操作:& n* ]5 [( N6 O# r$ o- h
$ w; t& u4 H! _, w0 {9 ^7 {
1.导入所需库:- import numpy as np( n9 z% o0 ]) s3 N! H7 ~' X# X
- import pandas as pd
- O `7 ^; J! N\" \( Q. u- h - from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({: | q2 @' ^) @& W\" {\" j& v
- 'good': [1, 1, 0, 0, 0, 1, 1],
. J% u- \+ l7 D4 C6 L\" \, r5 p5 S - 'sweet': [.95, .76, .82, .57, .69, .77, .89],
. Y# O% I8 h: X: e - 'density': [.876, .978, .691, .745, .512, .856, 1.297],: [+ U- b0 b8 q: U; Y! D
- 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
2 [4 X3 V7 n( D$ k\" A( ] - 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],9 b% l/ o) c3 u# \# ?9 ^ ]
- })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。
" `4 g, O" e: P/ O8 f6 g) V* A5 V; U) k0 r2 e7 a8 m
3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集
7 ^( P' v* f) f4 g; Z; e - y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()
* j0 x% z1 L4 W2 @; c- ~ - model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。
9 t( ^% I5 Y- E9 _4 J& {, l8 H8 d
: c& T3 }2 g+ G4 Z/ q$ y. m5.提取模型参数:- b0 = model.intercept_[0] # 截距1 F3 I8 E4 ?2 e; {2 e
- b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({6 Z1 V3 k6 t2 }. t' u0 w1 S H
- 'sweet': [.5, 1],
/ M1 R, T, A$ D4 j8 ` N - 'density': [.5, 1],
; b' C# {! I S# s3 d/ y$ q: p. p - 'volume': [.5, 2],
9 z- d( N3 J! x( m4 V - 'quality': [.5, 2],
) K6 Q; m- K% x - })
# e( n L2 g% O+ o( J1 j+ } - model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。, ]1 ]( `* w% u1 M
通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。6 t x9 }2 |* D
# k: r% Y1 W2 ?9 R, F
O) j1 G4 c2 n1 {& A
|
zan
|