- 在线时间
- 460 小时
- 最后登录
- 2025-1-26
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7138 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2719
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1155
- 主题
- 1170
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
数据集:使用加利福尼亚房价数据集。
7 U- }+ c6 N( E& f9 v任务:构建一个模型预测加利福尼亚地区的房价。$ n9 ^8 ]4 u6 k5 o
挑战:尝试不同的预处理方法(标准化、归一化等)和特征选择技术来改进模型性能。
& x: e, M& C" \6 P线性回归是一种预测数值型数据的经典统计方法,它假设目标值和特征之间存在线性关系。在房价预测任务中,我们可以使用线性回归模型来预测基于多个特征(如房屋大小、位置、年龄等)的房价。以下是使用加利福尼亚房价数据集进行房价预测的示例代码,以及如何应用不同的预处理方法和特征选择技术来改进模型性能。
" o$ h) D2 Y0 M5 Z& G. B! V3 j
5 ~, O- c6 r: P' U3 \加载和预处理数据
/ x1 t! p6 N. i% o& K9 w$ q首先,我们从scikit-learn中加载加利福尼亚房价数据集,并进行基本的数据预处理。 - from sklearn.datasets import fetch_california_housing: F6 N' N: h\\" Z+ x. e
- , P0 u- W6 ~5 D* B* s
- from sklearn.model_selection import train_test_split$ _, E7 a/ s: a! ^3 y2 X s- E, {
- ; T) v- z0 H7 g: f\\" i
- from sklearn.preprocessing import StandardScaler
- # z) Q& S+ H V: g ~
- 5 X% Y# Q7 \7 S\\" q0 D5 p! Z
- from sklearn.linear_model import LinearRegression
- * ^. c& {9 s) q
- ) c* i+ ^6 N, T9 i
- from sklearn.metrics import mean_squared_error
- 2 U: T' b/ J; X5 i
- ; }+ d* M* h/ Y U0 O, P
-
- 8 b+ ~# I1 [' d5 x, c
- $ X* {1 g) M2 Y ?0 i+ m
- # 加载数据集
- 4 v, C u2 Y5 a# a
- ' k: w+ ]9 ~+ @) Y R4 b
- housing = fetch_california_housing()
- 9 Y# \; d. E2 H3 k: `
- : x% ]* q& q8 y4 r+ w
- X, y = housing.data, housing.target
- 0 {+ e4 I3 a# ]) D- k
- 7 C/ K\\" \% J% m, T/ i
-
- 5 P2 e# ?1 R2 G J
- % c* G% C# ] v\\" x8 `- _0 v) ?
- # 划分训练集和测试集
- & f0 L4 m4 m, p. f: r
- 7 Y. l& e& M6 r, Q. `- C$ `
- X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)8 }% P8 u. [4 j$ n1 }/ f) |( r
- 4 x\\" _9 N# k$ l$ n4 M# D) A/ e
-
- ) F6 M1 L; Z1 Z- `$ }8 a& _
- + D1 G' ^4 E' _. z: F
- # 数据预处理:标准化
- 1 w0 d% {1 m8 h3 ^4 [* }
- 8 C9 z( a N' ^$ S\\" z
- scaler = StandardScaler()
- $ y. e) i+ _5 b# F4 k. f) Y$ l1 H
- 7 b+ O$ i J/ t
- X_train_scaled = scaler.fit_transform(X_train)
- 7 i4 N1 t/ c0 l# m
- 1 ]1 h1 Y9 M. {- {/ [
- X_test_scaled = scaler.transform(X_test)
构建和训练线性回归模型- # 创建线性回归模型
8 B3 ^( K2 o, N3 H - model = LinearRegression()4 f5 ^5 C6 R( ^% Z2 [
- : w! @( K9 b5 m) o+ N
- # 训练模型 ]0 W# |8 U1 s: X
- model.fit(X_train_scaled, y_train)
. S3 v) R/ r1 `# ?/ ]9 N# j$ K, H: g -
7 p8 M7 u2 Q r7 w - # 预测测试集
1 g1 y& o9 u& q- ]1 x1 e# z2 f) \ - y_pred = model.predict(X_test_scaled)
0 h5 X# N) B' Y, H; k7 K- A- I -
: z+ |4 T9 q B$ D1 F5 N$ ~ - # 评估模型
. M: G& L9 A2 x9 F+ V' y% e - mse = mean_squared_error(y_test, y_pred)) W/ b& |\" Z5 L! F& n
- print(f"Mean Squared Error: {mse}")
复制代码 挑战:尝试不同的预处理方法和特征选择/ O9 U3 @) R: y* A: X0 s+ [1 F2 j# X
预处理方法:除了标准化,你还可以尝试归一化(MinMaxScaler)、对数转换等方法,看看它们如何影响模型的性能。4 W( e1 T' X+ U
特征选择:可以使用不同的特征选择方法(如SelectKBest, SelectFromModel)来选择最有影响力的特征,这有助于模型专注于最重要的信息,提高预测准确性。- from sklearn.feature_selection import SelectKBest, f_regression2 y* a4 a# _3 Y: F+ l* j0 P2 H
- % `+ @' _0 J* L
- # 特征选择- g! |8 X; r\" N$ u7 d
- selector = SelectKBest(score_func=f_regression, k=5)
: G7 W/ U- F, y - X_train_selected = selector.fit_transform(X_train_scaled, y_train)
; V: x9 Y7 b7 U4 s0 R, S - X_test_selected = selector.transform(X_test_scaled)
+ B! D3 T- Y( W2 k - 2 D9 N( E; E0 _; {\" u
- # 使用选择的特征重新训练模型
- D/ ~% K8 N' ] a( h - model.fit(X_train_selected, y_train)
& I/ ]+ I; K% U& T - y_pred_selected = model.predict(X_test_selected)
% U* k4 R( [$ b; e9 S5 r$ v -
- L\" O2 `, |: h N - # 评估
( M4 O3 s- C' g! F - mse_selected = mean_squared_error(y_test, y_pred_selected)/ `- \7 F7 y2 k# p$ O
- print(f"Mean Squared Error with selected features: {mse_selected}")
复制代码 5 M4 r6 ?# V2 ?) }2 \- p; w. b; ^
|
zan
|