- 在线时间
- 479 小时
- 最后登录
- 2026-4-17
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7790 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2923
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
岭回归是一种用于处理多重共线性数据的线性回归技术,它通过对系数施加惩罚来限制模型的复杂性。这个惩罚项是通过添加一个正则化参数(通常表示为 λ 或 alpha)与系数向量的 L2 范数的平方成比例来实现的。岭回归的优化目标是最小化残差平方和和正则化项之和。
$ s+ [( M) H8 Z- F( w下面是岭回归的关键特点:
% V: D2 N$ ?0 i5 |" t) [" Z+ |; C: Y
1.正则化项: 岭回归通过添加一个惩罚项来约束模型的系数,使其不要过大,从而避免过拟合。这个惩罚项由正则化参数控制,它越大,惩罚效果越强,系数越趋向于零。
" l1 } l& H6 u$ R2.解决多重共线性: 当特征之间存在高度相关性时,普通的线性回归模型可能会变得不稳定,导致系数估计不准确。岭回归通过对系数的大小进行限制,能够更好地应对多重共线性问题。
# D+ _5 D/ E! d J3 D1 }# M3.超参数调优: 岭回归有一个关键的超参数,即正则化参数(λ 或 alpha)。这个参数需要根据数据集进行调优,通常使用交叉验证来选择最佳的正则化参数,以在训练数据上获得最佳的模型性能。
& a u8 y# d% K E4 _: |- x4.稳定性: 与普通的线性回归相比,岭回归对数据中的噪声更加稳健,能够产生更加稳定和可靠的系数估计。
3 u, R' s: ~7 c; t, L. x3 e* Z: D5.不可解性: 与普通的线性回归不同,岭回归没有封闭形式的解析解,需要使用数值优化方法来求解。
6 P$ W8 D# S; W6 U
o- r7 \, f. {总的来说,岭回归是一种强大的线性回归技术,特别适用于处理高维数据集或存在多重共线性的数据。) X1 ]8 ~% p5 q" N
1 I6 w4 E- R( E1 w H& ^2 x# I# \5 v4 Q8 z
这段代码执行了以下操作:4 p9 N! O( B3 h) v! U/ L. n
+ L1 n, Y$ y$ S( v: _1.导入所需库:- import numpy as np) O. t( S1 F3 j7 U
- import pandas as pd
9 [9 Q' |9 F/ G' D m' @( V' } - from sklearn.linear_model import LogisticRegression
复制代码 2.定义源数据:- df = pd.DataFrame({
6 S% O+ C+ ^; _/ O S - 'good': [1, 1, 0, 0, 0, 1, 1],1 { R5 G\" \ R2 @( B; x
- 'sweet': [.95, .76, .82, .57, .69, .77, .89],5 [# { x, J0 O7 Y0 V7 ^
- 'density': [.876, .978, .691, .745, .512, .856, 1.297],5 A1 S, y. |\" G! v7 k1 G% o+ t% T
- 'volume': [1.85, 2.14, 1.34, 1.38, 0.67, 2.35, 1.69],) R z7 U, o m\" m
- 'quality': [2.51, 2.45, 1.34, 1.15, 1.23, 3.95, 2.67],
8 f) |4 `* O0 t8 c- z1 U) \! q7 S - })
复制代码 创建了一个包含特征和标签的 DataFrame,其中 good 列是标签,表示样本是否好。, E3 @6 I7 E7 o: C
* f0 ]0 D" g. ?, {( e% |3.将数据转换为数组格式:- X = np.array(df[df.columns[1:]]) # 特征集
8 O! Y! e+ S/ D4 M+ M9 z - y = np.array(df['good']) # 标签集
复制代码 4.建立逻辑回归模型并拟合数据:- model = LogisticRegression()
& i/ n/ U$ h, Z4 d - model.fit(X, y)
复制代码 使用 LogisticRegression 创建了逻辑回归模型,并使用 fit() 方法拟合了数据。
$ w6 \7 t5 }( t8 {0 }5 D! L7 B, e- N" I$ V: ?
5.提取模型参数:- b0 = model.intercept_[0] # 截距6 o# d; {* M' n( ?( F/ y! l/ F2 o
- b1, b2, b3, b4 = model.coef_[0][0], model.coef_[0][1], model.coef_[0][2], model.coef_[0][3] # 系数
复制代码 6.进行预测:- df2 = pd.DataFrame({, |0 L8 b# _) a
- 'sweet': [.5, 1],
! }- y2 d! ^0 Y3 j+ x# t8 }- s) w - 'density': [.5, 1],0 R/ q\" P. }) n0 ]4 o
- 'volume': [.5, 2],( t; S- `4 I9 r+ l6 @1 {6 h
- 'quality': [.5, 2],9 U9 g& k/ q H0 i, }
- })
6 \0 O: B, M' F- {$ A, C - model.predict(np.array(df2))
复制代码 使用训练好的模型进行预测,预测了两个新样本的好坏标签。
! O/ Q# H. q0 w- ^通过这段代码,你可以使用逻辑回归模型对给定的数据进行分类,并进行新样本的预测。 g; H8 n, U: Y- e3 n9 m
8 n' l, [8 d7 A# x# \7 s
$ B) S% [+ `. D, O% m |
zan
|