QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2972|回复: 0
打印 上一主题 下一主题

一份简短又全面的数学建模技能图谱:常用模型&算法总结(一)——主成分分析

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-5-19 14:40 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    本文总结了常用的数学模型方法和它们的主要用途,主要包括数学和统计上的建模方法,关于在数学建模中也挺常用的机器学习算法暂时不作补充,以后有时间就补。至于究竟哪个模型更好,需要用数据来验证,还有求解方法也不唯一,比如指派问题,你可以用线性规划OR动态规划OR整数规划OR图与网络方法来解。- S( n& B# H. i! g; S
    3 y6 P( H/ r3 ?, _
    总的来说,常用主成分分析来降维,综合评价的方法有因子分析法、层次分析法、....,用蒙特卡罗方法来随机模拟求解;还应掌握数据变换、数据拟合、参数估计、插值等数据处理,线性规划、整数规划、目标规划、动态规划类问题的求解要根据已知信息找出约束条件与目标函数,图论算法也是非常常用的,组合优化算法常用于很难求出最优解的NP问题,还有一些连续离散化的技术 eg.通过插值or拟合or光滑技术【移动平均之类的】可以把离散数据连续化,通过分组【把数据划分成不同的小区间】OR差分就可以把连续数据离散化....。此外的数值分析算法eg方程组求解、矩阵运算、函数积分等算法也经常用得到。至于图像处理方法稍后再补。后面会再补一份用python进行数据分析的资料。
      {6 k2 u0 `% T( @
    ; Y7 M% p% ~& t【1】主成分分析
    ! Z7 b* T) ]. F# |$ s2 y    目的是希望用较少的变量去解释原来资料中的大部分变异,把相关性很高的变量转化成彼此相互独立或不相关的变量,是一种降维方法。 在描述数据集中的样本时,样本又叫作实例、观测,样本可以由多个属性来描述,这些又可以称为特征、指标、变量、维度,比如描述某企业的员工信息时,数据集就是所有员工信息,每个员工就是一个样本,用来描述样本信息的性别、年龄、工龄、籍贯、工资....就是特征,这些指标可能有某种程度上的相关关系,就会存在信息冗余,就需要特征选择,也就是降维,常用的降维方法有主成分分析pca, SVD奇异值分解,逐步回归。。。+ l3 r3 S5 X8 n- r! W. @# d

    7 ^- r9 s' O* L主成分分析 (一): 基本思想与主成分估计方法+ g' Y1 l. F$ e1 g
    主成分分析(principal component analysis)是1901年Pearson对非随机变量引 入的,1933年Hotelling将此方法推广到随机向量的情形,主成分分析和聚类分析有很 大的不同,它有严格的数学理论作基础。  主成分分析的主要目的是希望用较少的变量去解释原来资料中的大部分变异,将我 们手中许多相关性很高的变量转化成彼此相互独立或不相关的变量。通常是选出比原始 变量个数少,能解释大部分资料中的变异的几个新变量,即所谓主成分,并用以解释资 料的综合性指标。由此可见,主成分分析实际上是一种降维方法。: _/ l$ j1 K; V' ]# a4 r& X; h: W
    0 R$ t  M3 R0 }+ _8 K

    7 N, h+ g* m, e3 Q$ F4 i0 ?# k1 g6 N

    ! S0 E6 D2 O+ s" h! P/ m, ?+ @# O1  基本思想及方法' ]+ D) g6 G/ I' f- U! l' J

      E! I9 J9 Q# T( d: `+ c1 w  I7 Y' G

    + x; G- j8 x0 C0 n4 d5 U  X1 确定各个主成分的方法
    0 q$ S" f( {1 s0 b( D* x6 w9 B6 r一个主成分不足以代表原来的 p 个变量,因此需要寻找第二个乃至第三、第四主 成分,第二个主成分不应该再包含第一个主成分的信息,统计上的描述就是让这两个主 成分的协方差为零,几何上就是这两个主成分的方向正交。具体确定各个主成分的方法 如下。 " q  H2 J/ P# I: |3 E3 G

    + E3 M0 g8 K) f- @( p* n' z5 L% U

    4 X6 e. Q) A0 L4 \# c8 t$ w! K3 `2 注意事项1 T. {1 L9 s% f* k
    1)主成分分析的结果受量纲的影响,由于各变量的单位可能不一样,如果各自改变量纲,结果会不一样,这是主成分分析的大问题,回归分析是不存在这种情况的, 所以实际中可以先把各变量的数据标准化,然后使用协方差矩阵或相关系数矩阵进行分 析。
    # O( C6 H! e2 w4 ^* Y. T6 D  y" l
    % J) p/ e% E' H; { 2)为使方差达到大的主成分分析,所以不用转轴(由于统计软件常把主成分分 析和因子分析放在一起,后者往往需要转轴,使用时应注意)。1 D; j, F) a* d4 e0 W) `0 X

    , z7 `8 T7 j7 @0 l  U6 u 3)主成分的保留。用相关系数矩阵求主成分时,Kaiser主张将特征值小于1的主成 分予以放弃(这也是SPSS软件的默认值)。. T6 w6 ^' i% N& T
    ! c- C: i! @/ V4 \; y8 x
    4)在实际研究中,由于主成分的目的是为了降维,减少变量的个数,故一般选取 少量的主成分(不超过5或6个),只要它们能解释变异的70%~80%(称累积贡献率) 就行了。  下面我们直接通过主成分估计(principle estimate)进一步阐述主成分分析的基 本思想和相关概念。; f9 w& ~# L- [# N

    0 _2 c8 g) }+ }7 w3 H" c( J: \2  主成分估计
    $ V' k) V& o8 b2 ] 主成分估计(principal component estimate)是Massy在1965年提出的,它是回归系数参数的一种线性有偏估计(biased estimate),同其它有偏估计,如岭估计(ridge estimate)等一样,是为了克服小二乘(LS)估计在设计矩阵病态(即存在多重共线性) 时表现出的不稳定性而提出的。  + L) C; M. f4 A* E" q6 H
    6 _1 C: H; s. z9 e% O
    主成分估计采用的方法是将原来的回归自变量变换到另另一组变量,即主成分,选择其中一部分重要的主成分作为新的自变量(此时丢弃了一部分,影响不大的自变量, 这实际达到了降维的目的),然后用小二乘法对选取主成分后的模型参数进行估计, 后再变换回原来的模型求出参数的估计。 3 q9 K- z& @7 Y6 Q+ K+ t( t
    # Q  g  v4 }8 r+ Q7 \* o: \
    ' n- C  ~" v2 I7 ~0 s
    ! X( @% y# f" Z: }+ S* Y
      ^) b3 Q' K7 k  i; z
    单参数主成分估计! ?. W5 {) {* ?4 b( m. a
    理论上表明:主成分估计在设计阵病态时优于LS估计,但(31)在特征值为1的附 近存在跳跃,会影响计算的稳定性,杨虎在1989年给出的单参数主成分估计解决了这个 问题。 " }) b7 ?, y7 F

    9 k$ K, s2 y# ?+ f
    , K- R+ ]* t4 O! S例3  Hald水泥问题,考察含如下四种化学成分 6 k/ F" J& A; q5 b0 E0 Z* f  w' j& _

    - G6 ]' o  d+ T0 Y3 [- P+ q2 y4 q  \$ @

    % O: a( ?: a! @3 Q+ Q7 c5 E! m- j: t: q; J) p$ I
    相关系数阵的四个特征值依次为2.2357,1.5761,0.1866,0.0016。最后一个特征值接近于零,前三个特征值之和所占比例(累积贡献率)达到0.999594。于是我们略去 第4个主成分。其它三个保留的特征值对应的三个特征向量分别为 + k2 k# x& u0 t
    2 d# X$ \" w" X+ X3 b

    + E6 o* Z: H* N4 ~; `. M3 ~$ {
    - ^) \' b( v3 l0 J0 s) w对Hald数据直接作线性回归得经验回归方程 ! C7 `  L/ ~& {7 B" G5 ?+ H
    " `! b; k' C( d6 m
    ; N+ ?( S+ ?/ o  u$ a8 c6 n
    $ ^" [3 e) V2 B% t) [
    再由(31)式计算出主成分估计,即可获得如下主成分回归方程 ! p& V$ ]5 z8 n5 D
    ' f7 |+ B0 J$ f2 j$ x
    6 e* E- z, G5 \1 v  L0 ^1 g6 M# p

    , o* |9 p$ N" n5 h" F  ~$ e& p. m两个方程的区别在于后者具有更小的均方误差,因而更稳定。此外前者所有系数都无法 通过显著性检验。  计算的MATLAB程序如下:
    8 N: Q% T- ?# Q& }/ ^6 bclc,clear 0 R: `5 q8 m) S( |
    load sn.txt  %把原始的x1,x2,x3,x4,y的数据保存在纯文本文件sn.txt中 5 J& [+ Q# L7 J: K2 Q
    [m,n]=size(sn);num=3; %num为选取的主成分的个数 $ r9 f! D) H# R$ o+ m8 \
    mu=mean(sn);sigma=std(sn);
    ! `3 K! r; }6 c6 r' M" Rsnb=zscore(sn); %数据标准化
    * q- j( ^+ E% z: A# C% E  v, kb=snb(:,1:end-1); %x1,x2,x3,x4的数据赋给b
    7 e. U) R5 F- lr=cov(b);  %标准化数据的协方差阵就是相关系数阵
    1 M( {% t0 t$ Y% \; g* w[x,y,z]=pcacov(r);   A3 Z/ ^. k1 P7 n
    f=repmat(sign(sum(x)),size(x,1),1);
    ' @1 v2 K4 u# V: Z) nx=x.*f; ) z5 A; C1 Q3 D& N
    %以下是普通的小二乘法回归
    $ k3 u- s/ v) K2 B4 Z- d+ ur=[ones(m,1),b]\snb(:,end);  %标准化数据的回归方程系数
    9 p5 r5 e& t9 ]bzh=mu./sigma;
    . {3 h' f* B& b" F1 E! kch10=mu(end)-bzh(1:end-1)*r(2:end)*sigma(end)  %原始数据的常数项
    3 U1 J; u& r% s% q+ E4 \fr=r(2:end);fr=fr';
    3 ~8 F% g: d$ V5 P& Y  }3 k0 Xch1=fr./sigma(1:end-1)*sigma(end) %原始数据的x1,x2等等系数   S  y! w; U$ Q0 V/ j8 ^
    %以下是主成分回归
    , g* n$ o) j/ D) Y5 ppval=b*x(:,1:num);
    # D2 |$ J1 V3 ^) p+ i+ I! E; Jrp=[ones(m,1),pval]\snb(:,end);  %主成分数据的回归方程系数 $ P1 w/ e7 G% t
    beta=x(:,1:num)*rp(2:num+1);           %标准化数据的回归方程系数 1 B- k3 I: W- b( f  ]' ]
    ch20=mu(end)-bzh(1:end-1)*beta*sigma(end)  %原始数据的常数项
    0 N2 u; {% T8 g6 E- Wfr=beta'; : \9 @: U/ m7 @6 A# J6 S6 A
    ch2=fr./sigma(1:end-1)*sigma(end) %原始数据的x1,x2等等系数   T) J; O( M2 @# P$ U$ E
    check1=sqrt(sum((sn(:,1:end-1)*ch1'+ch10-sn(:,end)).^2)/(m-n))
    # B  J$ n' k8 D) d" d/ ]check2=sqrt(sum((sn(:,1:end-1)*ch2'+ch20-sn(:,end)).^2)/(m-num-1))
    % R/ ^2 a) R2 m: u8 {6 f0 t4 s
    1 h' E$ o' n2 s5 W" n: w5 H
    6 i9 ^) q3 P6 I( D$ m2 y6 E; d- l3 G
    / o$ ?$ {2 g  V: N

    . l; M# q5 O+ [9 X主成分分析法(二):计算步骤
    ) d) d4 u) N5 `: l* |, f主成分分析法的步骤
    ( N  h& Z1 s6 ?3 ]. n1)对原始数据进行标准化处理 * ]. W  i( ?7 i& `+ _, j) K

    # \8 X" Y- N6 v% t
    ; z0 m5 x2 F+ u. e2 b+ x           其中 , 即分别为第j个指标的样本均值和标准差。. O1 Q& b% m+ B& a1 W& |

    # l6 w1 Z. B$ ~2 a9 G; a8 X  t, l# K0 O& x' p; j& i/ B5 D: z
    6 U- e8 p0 B1 Z0 F, i0 `- l; o
    2)计算相关系数矩阵R
    5 o  I7 W" s  f9 q0 c6 u& o8 m5 n( Z2 Y0 e% \% F
    3 Q9 o; S+ }+ p9 s" g
    3)计算特征值和特征向量 - o7 \$ V- ?/ C' D
       特征值要由大到小排序
    ! {, J% x% H9 L2 Y9 f, W- ]( V1 p; u8 R  M! Y
    * a9 J8 e6 K: u2 i
    . i: B5 B7 g& f4 f
    4)选择 p ( p ≤ m )个主成分,计算综合评价值 - F" e1 @2 Z8 q8 l
    ' R* r# v0 o& I' Z' [( W
    ( m0 a4 g% k- r
    6 t9 @8 T, _" R9 \+ E% ]+ E$ I% ~
    $ t6 u+ K. }* [3 y: K/ `7 ~
    h
    7 \. [- e# P5 S+ D4 i5 K1 S# k1 m  g* D8 _
    matlab实现主成分分析的pcacov( )函数
    % Z) M% j- S3 `2 Wclc,clear
      |, f( Z; |- V9 n$ z  _load gj.txt   %把原始数据保存在纯文本文件gj.txt中   r# p' K' C4 k
    gj=zscore(gj); %数据标准化 8 {  r5 s7 u8 d  T7 ]/ ^1 |& @7 P) |
    r=corrcoef(gj);  %计算相关系数矩阵
    2 B: \! d% n/ d) k[x,y,z]=pcacov(r);
    8 W+ h" H" G! _/ If=repmat(sign(sum(x)),size(x,1),1); ; h* D' ?; T, w- e3 y% {/ L
    x=x.*f;
    ' O0 R* _# N! c! ]( P( O/ Sdf=gj*x(:,1:4) 0 X$ o# s  u7 B5 b, g
    tf=df*z(1:4)/100;
    7 u0 K! V3 g/ n( @[stf,ind]=sort(tf,'descend')
    + l: g1 {9 G( D  }4 p7 q6 A, P5 ]* ^4 e
    ! \! {( ]! }) j$ R% C0 u3 P: h' y* k5 L, O. C* i' C) q1 t

    % U: Y3 I& ?5 j" d9 Z( _; Q! t————————————————
    ) ?8 [# ?' J& p' o( g6 E- u/ F: b. c版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。4 J7 f# W7 i  w, l$ y6 e
    原文链接:https://blog.csdn.net/qq_29831163/article/details/88900766! W9 j7 t0 x+ i+ E  H

    6 R4 Y+ a% r2 ?5 e1 v$ @1 q% t
    2 ?0 Y3 g5 l# _  |6 ?3 O
    . h2 ]8 m1 `2 w' m, c% A. }$ [  r
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏1 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-20 12:21 , Processed in 0.425791 second(s), 51 queries .

    回顶部