QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2717|回复: 0
打印 上一主题 下一主题

偏最小二乘回归分析

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-11-30 16:59 |只看该作者 |正序浏览
|招呼Ta 关注Ta
偏小二乘回归提供一种多对多线性回归建模的方法,特别当两组变量的个数很多,且都存在多重相关性,而观测数据的数量(样本量)又较少时,用偏小二乘回归建立的模型具有传统的经典回归分析等方法所没有的优点。
' ^0 p" T7 Y0 p5 H/ G偏小二乘回归分析在建模过程中集中了主成分分析,典型相关分析和线性回归分析方法的特点,因此在分析结果中,除了可以提供一个更为合理的回归模型外,还可以同时完成一些类似于主成分分析和典型相关分析的研究内容,提供更丰富、深入的一些信息。
  1. import numpy as np2 C. G/ {* Z+ K. p0 P( u
  2. from sklearn.cross_decomposition import PLSRegression: k* T7 ~; B1 Y2 r: x$ ^- Z( K
  3. from sklearn.preprocessing import StandardScaler
  4. : g$ L' z0 `' V. @5 t' F
  5. import matplotlib.pyplot as plt% m\\" b' c5 D4 C5 r5 d4 r0 B' t3 y9 N

  6. 0 p  _5 u4 T0 U7 B. n
  7. # 原始数据,自变量X和因变量y& d2 |$ _9 c4 p& h# l
  8. X = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]])/ e- C+ i9 a, _8 x
  9. y = np.array([1, 2, 3, 4])4 K0 F) E6 P+ g1 q

  10. 5 x& H1 Q6 {  I2 c; e
  11. # 对自变量进行标准化处理
  12. ; G: Z. i. Y& j  V% `3 N
  13. scaler = StandardScaler()6 w+ L+ D( c' f5 P3 j; S
  14. X_scaled = scaler.fit_transform(X)
  15.   E& V4 x\\" Q& v
  16. ' ]2 Q! u- H, R' h
  17. # 创建PLSRegression对象,并指定主成分个数为2  [+ y4 h& x* ^* `8 g
  18. pls = PLSRegression(n_components=2)2 N% Y4 _. P1 v! u( A) V* P

  19. / G$ H! ^2 b! @  D1 e. V( i
  20. # 进行偏最小二乘回归分析! Y( k% W- a. w2 F' g1 i4 }2 h
  21. pls.fit(X_scaled, y)
  22. - t* ^( ~- {, z

  23. 4 {/ K! f4 k) Q
  24. # 获得预测值6 z* _. H3 H* c+ g) z
  25. y_pred = pls.predict(X_scaled)
  26. 0 d- P3 R& D% q3 `0 O+ E
  27. * r! }. u2 H& v; n
  28. # 绘制原始数据和预测值# |; X2 m\\" U& \5 F& k
  29. plt.figure(figsize=(8, 6)). y2 S\\" B5 B4 y* c) r, P: e5 b
  30. plt.scatter(y, y_pred, c='b', label='Predicted vs. Observed')$ C* Q) c9 t% c; _
  31. plt.plot([min(y), max(y)], [min(y), max(y)], 'k--', lw=2, label='Perfect Fit')9 X0 i; `; c6 D5 ]; ?
  32. plt.xlabel('Observed')
  33. + L+ G2 ~4 I# {+ [
  34. plt.ylabel('Predicted')4 C6 }, H4 U4 G* T% H1 O0 R
  35. plt.title('PLS Regression')
  36. $ e' p+ J1 D0 P' {
  37. plt.legend()
  38. 4 W1 P( v/ D) F\\" W! G, [
  39. plt.grid(True)* @8 M1 Z5 C' D. {6 L
  40. plt.show()( B! E- h+ Q2 I8 e
  41. 5 s) u+ I9 y' z3 h5 x+ d
在上述代码中,我们首先定义了原始数据矩阵X和因变量向量y,然后创建了一个PLSRegression对象并指定保留的主成分个数为2。接下来,使用fit()方法进行偏最小二乘回归分析,并使用coef_属性获取回归系数。最后,使用predict()方法对原始数据进行预测,并获得预测值y_pred。请根据实际情况调整原始数据和保留的主成分个数,并根据需要对结果进行解释和分析。: n8 U) ^7 L5 j' ?' z& ~) b5 {
运行上述代码,将绘制散点图来展示观察值(原始数据)与预测值之间的关系。如果模型拟合良好,散点图中的点应该基本落在对角线上。如果点主要集中在对角线上方,则预测值高估了观察值;如果点主要集中在对角线下方,则预测值低估了观察值。在理想情况下,所有点都应该在对角线上。3 R* p1 y- ]' {) b0 P8 R9 p
VeryCapture_20231130164832.jpg
1 U. u6 r: H% u0 q' s' r, U  M
- k: Y% B) Z! h& m
/ s0 N0 Y0 S- g' i& E
zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-12 21:00 , Processed in 0.441591 second(s), 55 queries .

回顶部