- 在线时间
- 478 小时
- 最后登录
- 2026-4-9
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7788 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2922
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
代码执行了以下操作:) T; U( y! e# O( a$ Q
6 e9 i8 p, o2 l9 d0 J* a2 |1.导入所需库:- import numpy as np
5 r( w M\" H+ \1 a1 E2 _ - 6 a% z+ u# L2 \& T
- import pandas as pd
1 o0 W i% r0 C: }) M) d: {
. D6 D e3 y. J) w- import matplotlib.pyplot as plt
9 `' o1 D/ S6 \
1 W7 ^1 P+ r ?) J5 u* u- from sklearn.linear_model import Ridge, RidgeCV
复制代码 2.定义源数据:- df = pd.DataFrame({
) n: ^9 {* z8 A\" p4 Y5 g I0 h
+ ^) S/ Z9 g1 |3 N/ L- 'x1': [7, 1, 11, 11, 7, 11, 3],
% A5 V0 A/ A\" e1 z1 x7 K - 4 M& y5 [ a2 b\" d# U2 t# o. \. N0 {
- 'x2': [26, 29, 56, 31, 52, 55, 71],4 G7 l( H0 v, x, a8 H
0 {, l C' ^* Q B5 T' p- 'y': [78.5, 74.3, 104.3, 87.6, 95.9, 109.2, 102.7],
- W0 l* G {: h* y; L
6 B7 w5 T! a7 ]$ y2 d: K8 R& z- p, V- })
复制代码 创建了一个包含两个自变量(x1 和 x2)和一个因变量(y)的 DataFrame。) d+ ~, B7 k) D5 J1 S/ R% y j8 k
4 C; e1 p/ }* c2 M( i0 Y3 e
3.将数据转换为数组格式:- X = np.array(df[['x1', 'x2']]) # 特征集\" u8 M( p8 r. V\" T$ M$ y
- : ^5 t) I, Y5 {# n9 s8 o R$ E
- y = np.array(df[['y']]) # 目标集
复制代码 4.遍历不同的正则化参数 ( k ):- k_array = np.logspace(-4, 1.5, 100)
( }0 ?# k( D\" k: Q2 O
; K2 E% j$ M4 x+ `! O* j' j- x1_list, x2_list = [], []6 o( U\" b2 ]* e1 K
% S8 \0 r+ N4 q7 ^- for k in k_array: R: v- L, n3 j6 J! K$ ~$ K6 y
- ) h+ I% [- T2 F0 H
- model = Ridge(alpha=k).fit(X, y)* L* I3 ?( J( n9 _4 x ~+ ^/ F
# o( y& t1 k( W# `& u/ p4 [- x1_list.append(model.coef_[0][0])6 \ {4 U& f( t: u* O& N( Y$ G
+ A$ I4 j* s3 B: w! \, f/ ~- x2_list.append(model.coef_[0][1])
复制代码 遍历了一系列正则化参数 ( k ),对每个参数值使用 Ridge 回归模型拟合数据,并将得到的系数存储到 x1_list 和 x2_list 中。% f, z+ @" v. B
+ T5 {$ [. [' x" ~2 f5.绘制岭迹图: - plt.scatter(k_array, x1_list)
- , e: ~% o9 R+ [1 M& M# `
- 2 O$ [2 f9 J- g6 h
- plt.scatter(k_array, x2_list)
- / G. I& H' T, o9 V. x# W! i: h
- 1 J8 \& t/ u* ?
- plt.plot(k_array, x1_list, label='x1')
- \\" O* }% }& w\\" O3 b
- ; S; d5 D* U* V
- plt.plot(k_array, x2_list, label='x2')
- 3 x2 H' A, h. d' y6 z& v
- \\" b1 S1 ]6 h. T8 [- U! q
- plt.legend()
绘制了岭迹图,展示了不同正则化参数 ( k ) 下,系数 ( b1 ) 和 ( b2 ) 的变化趋势。7 B, e1 B4 B' n% I7 ?
1 w% R- P4 o: `- ?0 n m
6.自动匹配最佳 ( k ) 值:- model2 = RidgeCV().fit(X, y)
复制代码 使用 RidgeCV 自动匹配最佳正则化参数 ( k ) 并拟合数据。: o3 h! \: N+ p3 d( `# k' Y
5 ]* v2 t! ?1 y, }0 n+ y
7.输出最佳模型的参数和拟合优度:- b0 = model2.intercept_[0] # 截距
. n4 c* p2 \7 A - 5 x7 u4 F2 _. o\" ~, [
- b1, b2 = model2.coef_[0][0], model2.coef_[0][1] # 系数8 B0 }4 n& X& a
- , _$ D& N3 N l) a! o2 q\" Z
- print('y = {:.4f} + {:.4f}*x1 + {:.4f}*x2'.format(b0, b1, b2))0 ~) b* s0 E/ y a2 G
- % ?1 R2 n+ z t; h% f9 a0 K- }
- print('R_square =', model2.score(X, y))3 l. F* m! y. @4 ^9 S
- * q9 Q2 ^- t5 R! o2 K a# y
- print('k =', model2.alpha_)
复制代码 输出了最佳模型的截距、系数、拟合优度以及对应的最佳正则化参数 ( k )。
# a9 i- e4 z3 d# N% C/ Q5 \2 k通过这段代码,你可以对 Ridge 回归模型进行正则化,并选择最佳的正则化参数来提高模型的泛化能力。同时,岭迹图可以帮助你直观地观察不同正则化参数下模型系数的变化趋势。* q# k. U; o$ G! D4 F& ?
, N7 n2 _+ d: F" o" \' B
0 ?3 P& }- [0 D; ?* e
% q. n9 q q w. ~5 l7 i
2 `/ g. \! d; P) K4 q$ O
# ]% @. u- B! `" z! R- T |
zan
|