- 在线时间
- 477 小时
- 最后登录
- 2025-12-17
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7772 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2916
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1169
- 主题
- 1184
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
$ X h% M6 _. D4 X下面是岭回归的关键特点:( |4 M' y* J# Q4 S
. d4 w) Z$ ? Y0 ]0 x
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。9 Y* `+ r+ q, \$ Y+ [' E* y5 m* N
2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。
8 b, j) W$ f8 w2 ?! L3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。" u* P# g7 u" B* s, T& A3 X
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。2 g' b1 f% q2 E4 z5 _$ f
5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。4 p( }7 J; A% w* o1 ~7 I& p* A
4 y* q; C. p% L1 V
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。
( E8 X# V) @5 g) k% Y
: i& m7 H- }/ ^1 G7 @7 x' x, u c$ \! [( H* p
这段代码执行了以下操作:# M* I9 c2 I: r* O. a' m
2 Q/ ~( p) U( ]1.导入所需库:- import numpy as np9 \+ w& j- N0 c ~& Y: \
- import pandas as pd+ O+ S$ c* W0 ` X+ n3 E6 d
- from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({. h\" S. c: o! q7 s
- 'good': [1, 1, 0, 0, 0, 1, 1],
& e* u$ Z* f( ]* j+ \% Z - 'sweet': [.95, .76, .82, .57, .69, .77, .89],$ l- R, m, p1 n3 e- x; A
- 'density': [.876, .978, .691, .745, .512, .856, 1.297],
/ E& \5 Q f8 X6 v6 n; d' I - 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],9 @( w% Z0 w& R# I
- 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],4 D. z# F' Q6 j: u' c' k8 g$ _
- })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。
' i* A% S! X* ]( d; Q( [. w" u7 ~& h
3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集( M Z; g9 g& m& V3 v, k9 U
- y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()6 A# L' O% D! A6 s& i8 i. y7 l7 a
- model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。5 F. U- x0 F" k( Q
5 Z" l7 `6 r; O" x1 `$ u5.提取模型参数:- b0 = model.intercept_[0] # 截距
\" g4 Q4 l1 U7 O3 c9 m - b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({6 z8 Q2 V9 f1 K3 d: d+ ?, a: T
- 'sweet': [.5, 1],; t( V( F( O, b+ b; _+ h
- 'density': [.5, 1],
8 T0 N. J0 h7 h0 l, |3 p) A - 'volume': [.5, 2],2 K# }4 N( b1 T) u7 s. V3 Y8 l$ W
- 'quality': [.5, 2],# P, W( o3 ]\" v+ F
- })2 ^/ J* n1 t9 `3 x! Y
- model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。
3 T* T" a# Q7 x' r: p+ N通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。5 z/ E" c8 Q9 ~) [
* L! x7 ^+ Y9 e& T6 `# \" Q V
7 Y; @* R8 \3 c, f! I, V3 ?" P
|
zan
|