- 在线时间
- 791 小时
- 最后登录
- 2022-11-28
- 注册时间
- 2017-6-12
- 听众数
- 15
- 收听数
- 0
- 能力
- 120 分
- 体力
- 36307 点
- 威望
- 11 点
- 阅读权限
- 255
- 积分
- 13853
- 相册
- 0
- 日志
- 0
- 记录
- 1
- 帖子
- 616
- 主题
- 542
- 精华
- 12
- 分享
- 0
- 好友
- 225
TA的每日心情 | 开心 2020-11-14 17:15 |
|---|
签到天数: 74 天 [LV.6]常住居民II
 群组: 2019美赛冲刺课程 群组: 站长地区赛培训 群组: 2019考研数学 桃子老师 群组: 2018教师培训(呼伦贝 群组: 2019考研数学 站长系列 |
主成分分析(principal component analysis)是1901年Pearson对非随机变量引 入的,1933年Hotelling将此方法推广到随机向量的情形,主成分分析和聚类分析有很 大的不同,它有严格的数学理论作基础。 主成分分析的主要目的是希望用较少的变量去解释原来资料中的大部分变异,将我 们手中许多相关性很高的变量转化成彼此相互独立或不相关的变量。通常是选出比原始 变量个数少,能解释大部分资料中的变异的几个新变量,即所谓主成分,并用以解释资 料的综合性指标。由此可见,主成分分析实际上是一种降维方法。3 s% L! C& a+ X" G8 x
- D1 @8 Q2 ^/ `# _* l) U. e9 _![]()
( n: C- X1 E0 x+ J: u6 L/ D
; X+ w$ `0 I0 V, c# \1 基本思想及方法
% |% M* L U) V% i
' D f$ o s; {# t0 `3 u( ]![]()
7 N% X! ]$ h% _6 C D1 C4 f6 z. V
/ l+ v l% P) ?+ H: C) E 0 A; z, K/ z _( A$ p
! t U [1 e5 ]- C' E$ e1 确定各个主成分的方法
& j6 \8 O& ~) g) D* `, b一个主成分不足以代表原来的 p 个变量,因此需要寻找第二个乃至第三、第四主 成分,第二个主成分不应该再包含第一个主成分的信息,统计上的描述就是让这两个主 成分的协方差为零,几何上就是这两个主成分的方向正交。具体确定各个主成分的方法 如下。
+ N3 ]- X, Z! ~" i9 n* Q
& P8 u8 [5 S+ {$ `+ W 0 S* ?* _3 c( J" V
# d2 g8 a- u( u5 `- d0 Y% Z0 r6 K9 A5 j. _1 q* A0 z1 s) |2 n; J
2 注意事项5 J( n& f3 ]+ a3 d. _
1)主成分分析的结果受量纲的影响,由于各变量的单位可能不一样,如果各自改变量纲,结果会不一样,这是主成分分析的大问题,回归分析是不存在这种情况的, 所以实际中可以先把各变量的数据标准化,然后使用协方差矩阵或相关系数矩阵进行分 析。
5 |* W& k7 `# N" N6 q! R1 z
# x; ~: N) o( S0 q% W6 q* k- h 2)为使方差达到大的主成分分析,所以不用转轴(由于统计软件常把主成分分 析和因子分析放在一起,后者往往需要转轴,使用时应注意)。) F+ `4 e- q( p. ^' }1 I0 j
- c e" Y7 f5 D2 g
3)主成分的保留。用相关系数矩阵求主成分时,Kaiser主张将特征值小于1的主成 分予以放弃(这也是SPSS软件的默认值)。$ M- A- S: h( N; `9 O5 q0 C) Y
7 f/ A# t5 y& w- {. M7 K
4)在实际研究中,由于主成分的目的是为了降维,减少变量的个数,故一般选取 少量的主成分(不超过5或6个),只要它们能解释变异的70%~80%(称累积贡献率) 就行了。 下面我们直接通过主成分估计(principle estimate)进一步阐述主成分分析的基 本思想和相关概念。2 @, q2 J j+ B5 [
7 O% z; j& I8 ^9 ?2 Z
2 主成分估计 8 E8 t: b( r& A4 H$ n( f
主成分估计(principal component estimate)是Massy在1965年提出的,它是回归系数参数的一种线性有偏估计(biased estimate),同其它有偏估计,如岭估计(ridge estimate)等一样,是为了克服小二乘(LS)估计在设计矩阵病态(即存在多重共线性) 时表现出的不稳定性而提出的。
/ q9 }3 v! q% }, }! D4 g5 r
6 X, ?) S2 ^4 u) x5 e* E主成分估计采用的方法是将原来的回归自变量变换到另另一组变量,即主成分,选择其中一部分重要的主成分作为新的自变量(此时丢弃了一部分,影响不大的自变量, 这实际达到了降维的目的),然后用小二乘法对选取主成分后的模型参数进行估计, 后再变换回原来的模型求出参数的估计。 & P, e( _6 p/ n0 r8 R( O
, [4 d* O5 K9 h
4 P" k( D" ]: w0 l
$ b# R7 Y& a6 w! X' {
( @; X0 u; ` W3 K" E
![]()
. U u) i: ]9 k/ ~+ g# h. R
5 k/ r0 J9 b9 S7 g* Y9 R
, w+ T- s, s0 h& E5 c7 F/ i![]()
/ I& @; a/ Q* n& s# {) g' D) t2 w: A
4 b' |( N' C- r: a: F![]()
' @& ?) X) X+ K- G9 F' N/ ` l9 a- j, N; x8 ^3 |* K8 C2 ^2 g, [
# M D/ Q0 j% E
: b; X' l/ k* \! M![]() 4 a1 ]% Y# ]# U( g7 V7 c f& S
& N; I+ h! {2 N. H单参数主成分估计
. D2 s$ i" g8 l* e理论上表明:主成分估计在设计阵病态时优于LS估计,但(31)在特征值为1的附 近存在跳跃,会影响计算的稳定性,杨虎在1989年给出的单参数主成分估计解决了这个 问题。 " P# l ~, A& R5 A* o
! x8 O+ h. l; [9 o7 X' [# z![]()
) b0 l4 m9 S! s% h* L, r; W( X2 [* {0 y/ Z' s2 o2 q' F: M# Y
例3 Hald水泥问题,考察含如下四种化学成分
1 k. t5 J; z9 i* K( d5 f) r# ^1 u+ Y; Q" O5 c6 h$ P2 v
& k2 O# p( `: ^9 }
; d- X+ N( t9 a9 \$ H/ N: U0 T: v
![]()
: n- D& ^, r# J" a! T1 e
" r9 |0 @- }; n/ t: ?, T相关系数阵的四个特征值依次为2.2357,1.5761,0.1866,0.0016。最后一个特征值接近于零,前三个特征值之和所占比例(累积贡献率)达到0.999594。于是我们略去 第4个主成分。其它三个保留的特征值对应的三个特征向量分别为
. h; k- ]" }4 y# O N- l. O, Q) ~# }3 T$ M: q0 r) t! z2 {
0 J' K! O! i7 P7 S& p8 \
* O. L. x$ {8 x% s' `# b
对Hald数据直接作线性回归得经验回归方程 4 Y' M3 n' M0 w# {+ b" t% U
h/ ]$ ?7 t) g9 [8 m1 q. D 8 b6 r8 ?2 E+ i6 Y0 _+ `+ T
( _ Y0 l9 C; K& ] Z2 x( r再由(31)式计算出主成分估计,即可获得如下主成分回归方程
5 {0 S- t6 i# q& X L: R7 m6 A5 v- f3 X f: m$ S
. I4 J- J; K, F1 B3 c
" r( X5 O- _6 M e/ m A, Y两个方程的区别在于后者具有更小的均方误差,因而更稳定。此外前者所有系数都无法 通过显著性检验。 计算的MATLAB程序如下: / A9 j2 [0 i: Y' _: C$ }
clc,clear
1 e$ J1 x$ q# V* F- r) z( Uload sn.txt %把原始的x1,x2,x3,x4,y的数据保存在纯文本文件sn.txt中 6 g6 K4 O& w, }+ ]0 Z
[m,n]=size(sn);num=3; %num为选取的主成分的个数 8 E% ^5 I: w' o& v1 [% E" D
mu=mean(sn);sigma=std(sn);
2 k& J. j' z0 ~4 A% asnb=zscore(sn); %数据标准化
; y0 ^" n% w! \1 b+ rb=snb(:,1:end-1); %x1,x2,x3,x4的数据赋给b 7 N+ r" @5 R; m" s0 H% T: n) k
r=cov(b); %标准化数据的协方差阵就是相关系数阵
' f& `8 y; O/ [% V* _- H7 T[x,y,z]=pcacov(r);
; |* y M/ i3 L+ cf=repmat(sign(sum(x)),size(x,1),1); , x4 Q$ Y1 y7 C
x=x.*f; 7 a, T+ Y, D- z% y: p; V/ {2 z
%以下是普通的小二乘法回归
: E* ]- ]$ F+ I9 ar=[ones(m,1),b]\snb(:,end); %标准化数据的回归方程系数
) q2 h1 W, l6 d2 d, w) c" {8 \! |bzh=mu./sigma; & C2 t, Q0 c& Q9 H- r5 O/ j
ch10=mu(end)-bzh(1:end-1)*r(2:end)*sigma(end) %原始数据的常数项
4 S: O% x t c- p% ufr=r(2:end);fr=fr'; 0 r% |% h, I! m2 W |
ch1=fr./sigma(1:end-1)*sigma(end) %原始数据的x1,x2等等系数 5 e F# B' @' [! J2 c' f, c& ?
%以下是主成分回归
) w9 l i5 Y9 n$ r/ X6 E9 Jpval=b*x(:,1:num);
) a" i, N( }" _( _, grp=[ones(m,1),pval]\snb(:,end); %主成分数据的回归方程系数 " t: Q/ Q l G4 U) H L9 m+ ~
beta=x(:,1:num)*rp(2:num+1); %标准化数据的回归方程系数 # {% K4 S3 Q. V3 h/ X6 {, _! s" N
ch20=mu(end)-bzh(1:end-1)*beta*sigma(end) %原始数据的常数项 7 B/ A9 Q" M* d* O4 D+ D
fr=beta';
' k) N. e& s' e* f! sch2=fr./sigma(1:end-1)*sigma(end) %原始数据的x1,x2等等系数
' L* ~7 M+ @" ]3 Hcheck1=sqrt(sum((sn(:,1:end-1)*ch1'+ch10-sn(:,end)).^2)/(m-n)) ; g+ b4 w7 Z4 C8 |
check2=sqrt(sum((sn(:,1:end-1)*ch2'+ch20-sn(:,end)).^2)/(m-num-1)) 4 Z( q1 c" m! j( i
t7 @' x2 E# |5 T
# z$ m$ {0 M" j0 A————————————————
/ e6 C" V- F9 z$ G) u( l版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。$ B- j: L; n1 n- V+ [
原文链接:https://blog.csdn.net/qq_29831163/article/details/89577292+ ?8 E1 B' y7 {+ ~$ N5 l( Q
+ V- k I8 i5 R* A$ n+ l% M' O, k" O2 Q! _5 U/ G2 V8 a2 h& U
|
zan
|