- 在线时间
- 479 小时
- 最后登录
- 2026-4-13
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7789 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2922
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
9 T+ y4 F/ z# g/ r0 X$ V下面是岭回归的关键特点:2 T4 [0 k( m8 d! O7 \' u
* u2 S- x( h6 P! c4 a1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。5 y! E8 G. D, w, [7 a
2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。0 M5 @ ]: l; d3 V
3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。3 u2 p, Q2 j& V$ K' _' C7 c
4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
: s' t. D* z; P1 q- A2 z- F5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。' [6 Z2 a& o b4 s' m
6 \. d, l2 y6 Y. y9 r' c
总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。0 e& Z' t, X7 G9 { ~; @
( w/ ^9 _ l/ I
2 v7 m. c* J( |/ Z- @) u. q这段代码执行了以下操作:
* t6 O4 K$ Y% V( E2 }
' a9 ~- N0 n' U" E* {- }7 h* ^$ j: X1.导入所需库:- import numpy as np
2 \\" H+ N% H. P0 ?3 c* S) S - import pandas as pd, n) O4 N1 o7 x$ i& u
- from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({
6 b- J p/ z( W3 P - 'good': [1, 1, 0, 0, 0, 1, 1],
- Q\" n1 k9 t. O - 'sweet': [.95, .76, .82, .57, .69, .77, .89],; y: L3 ^! J/ K5 N! [4 `) P! a5 S
- 'density': [.876, .978, .691, .745, .512, .856, 1.297],& w2 |( ]' y& u) M( r) x% i
- 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],
\" ]2 H\" y3 Z. P y+ k0 F - 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],
0 h1 r, |. \( [5 [0 ? - })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。
4 s4 \5 U2 f8 L+ Z# S/ y
- w5 y( F/ Y0 U3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集\" P0 m, W& u' R C1 a* O9 d% t
- y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()8 D* ^5 N3 @\" X- z
- model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。
1 [: B& Z0 Z. U+ X
5 ]8 y8 B) S' z5 d9 \4 g |5.提取模型参数:- b0 = model.intercept_[0] # 截距$ W! f: l; M, o3 f
- b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({
! k* Q/ s, M; X! j4 {5 F - 'sweet': [.5, 1],$ o5 r4 A8 P7 y6 T& ]
- 'density': [.5, 1],6 B$ w6 e' l9 J! F3 o\" t4 h* d c
- 'volume': [.5, 2],
q+ ~4 d; p5 l( M9 t4 s1 J/ T - 'quality': [.5, 2],9 e\" D( |( x0 { S& I ^
- })/ H\" q& c. I9 b Q
- model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。4 o/ F+ _6 _# Q; t$ e' Z: m
通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。4 K$ R1 f% m+ e& e% M
6 M9 q; s6 k% J0 {7 b. P6 x
3 O: i1 N. o2 W" o, ]# f5 R |
zan
|