- 在线时间
- 475 小时
- 最后登录
- 2025-12-5
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7747 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2908
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1168
- 主题
- 1183
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
数据集:使用加利福尼亚房价数据集。+ Y! ?' E! ^+ Y
任务:构建一个模型预测加利福尼亚地区的房价。3 j) i1 j) Y) ~) {4 K, I
挑战:尝试不同的预处理方法(标准化、归一化等)和特征选择技术来改进模型性能。
* E0 z4 {8 {5 N1 p" t: N) m$ o* p线性回归是一种预测数值型数据的经典统计方法,它假设目标值和特征之间存在线性关系。在房价预测任务中,我们可以使用线性回归模型来预测基于多个特征(如房屋大小、位置、年龄等)的房价。以下是使用加利福尼亚房价数据集进行房价预测的示例代码,以及如何应用不同的预处理方法和特征选择技术来改进模型性能。
! T% F3 ?; l Q% Z
" H$ N* b. i" y. ^ `6 Y. @加载和预处理数据
* Y; G( m0 V, v" E! j首先,我们从scikit-learn中加载加利福尼亚房价数据集,并进行基本的数据预处理。 - from sklearn.datasets import fetch_california_housing, l% t) A. ^! [# g1 L0 A
- , P) T3 G\\" J, R; `, r4 @: k- A
- from sklearn.model_selection import train_test_split L7 V i) `; `5 {
- 4 N1 K( y4 C3 W3 @
- from sklearn.preprocessing import StandardScaler, n. M( ]1 C7 E; e
- 6 _; n3 {8 g. X# n7 d% z8 U& Q/ C9 O
- from sklearn.linear_model import LinearRegression7 j' K0 w$ C\\" p/ z. E% g
- % N) o: Z5 ^+ h5 Q. w( }& c) m( ^/ \
- from sklearn.metrics import mean_squared_error
- \\" s* |7 y. u1 i+ D9 y% _
- 4 F\\" x, e. e, `7 M\\" D$ Y
- 2 j+ i$ D& h+ P4 E
- $ z- G' w6 {+ W& T
- # 加载数据集1 m- r% S* y9 R; h\\" w
- ( r, Y; `# p4 Z% W( g* M8 g
- housing = fetch_california_housing()7 D3 K\\" P$ n! m
- . k' [+ D% W$ y4 g O) M7 s1 s
- X, y = housing.data, housing.target7 E6 W0 p. W( {
- + p& Y4 i# f$ I8 a0 c* l4 x& f2 k
-
- + ?/ u t# E* u; i, e! f7 [
- ) L6 X: Q1 ?% W) j8 E* b( T3 O7 F. D% T: P
- # 划分训练集和测试集
- $ k7 V\\" N6 o0 I8 {0 R
- $ \\\" D c% s' l& g8 d
- X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)* n L e7 Z: C+ ?0 \ ?
- + d% n+ Y* \: p9 s. {! {' z$ L
-
- 7 p$ A0 c/ Q( }2 `
- ( G5 z5 U7 [# Y, h& e- T6 R) i x
- # 数据预处理:标准化
- # c/ W+ f/ w! V
- , ] v6 w. b. P: t
- scaler = StandardScaler()
- t. X( R/ H4 u- `2 q; x$ S
- ; r ^+ m9 J9 S+ u6 ]: d; X
- X_train_scaled = scaler.fit_transform(X_train)! `, j3 q$ z, t( ^
- 1 {. ^3 a2 V( J! H/ G4 {
- X_test_scaled = scaler.transform(X_test)
构建和训练线性回归模型- # 创建线性回归模型
0 X' D7 z [7 `3 z/ | - model = LinearRegression()
, r, H5 M- [\" `) \8 M - % K8 c8 Z- D3 x& ?- f8 X
- # 训练模型( Q8 s7 Z6 ] {' [
- model.fit(X_train_scaled, y_train)
8 h' V; O7 O2 F- D4 N* p1 u - ( h& x5 l$ ~) I9 u% X( w1 e3 \: V
- # 预测测试集3 z) E4 d# r. G% x+ [, |
- y_pred = model.predict(X_test_scaled)
: f! S4 M6 v ?5 q+ F/ f -
2 W# a) {# B! G6 p - # 评估模型( u- D. {0 L5 G
- mse = mean_squared_error(y_test, y_pred)
1 W& |6 G6 o2 E5 w - print(f"Mean Squared Error: {mse}")
复制代码 挑战:尝试不同的预处理方法和特征选择, N4 A5 ~+ S( G0 R1 p7 Y- f
预处理方法:除了标准化,你还可以尝试归一化(MinMaxScaler)、对数转换等方法,看看它们如何影响模型的性能。
! N2 {. z9 s! w, b' T特征选择:可以使用不同的特征选择方法(如SelectKBest, SelectFromModel)来选择最有影响力的特征,这有助于模型专注于最重要的信息,提高预测准确性。- from sklearn.feature_selection import SelectKBest, f_regression( q5 \# R( z$ e+ j
- % F) M+ j0 Q' f% b
- # 特征选择
4 A* f7 K+ a( d, b1 y) a0 g - selector = SelectKBest(score_func=f_regression, k=5)
/ s* e- T/ d\" n - X_train_selected = selector.fit_transform(X_train_scaled, y_train)
8 u: Q V1 f# w6 _& j\" q% g - X_test_selected = selector.transform(X_test_scaled)
9 I# f* L8 x( v! u! J0 P' k: V0 ^- v -
$ g0 W @* I2 Q - # 使用选择的特征重新训练模型7 _/ ?3 ^/ A) e9 t
- model.fit(X_train_selected, y_train); w4 g\" \' R4 k. D/ a* Y
- y_pred_selected = model.predict(X_test_selected); c! U8 q\" H- c* x0 e) ~. R! c
-
$ v% N3 M3 y0 p4 c) ` - # 评估- d! q- l% E5 i8 i ?% T% R
- mse_selected = mean_squared_error(y_test, y_pred_selected)! W7 d4 Z: X$ ^# `( N' c
- print(f"Mean Squared Error with selected features: {mse_selected}")
复制代码 1 i9 k) E# A- {1 J
|
zan
|