主成分分析(principal component analysis)是1901年Pearson对非随机变量引 入的,1933年Hotelling将此方法推广到随机向量的情形,主成分分析和聚类分析有很 大的不同,它有严格的数学理论作基础。 主成分分析的主要目的是希望用较少的变量去解释原来资料中的大部分变异,将我 们手中许多相关性很高的变量转化成彼此相互独立或不相关的变量。通常是选出比原始 变量个数少,能解释大部分资料中的变异的几个新变量,即所谓主成分,并用以解释资 料的综合性指标。由此可见,主成分分析实际上是一种降维方法。 5 N+ h7 s& N5 [5 K) z7 s. A9 l" p4 e0 U u, g _9 O) Z j* V. v) @+ J7 T m
' F' I; m1 P7 t, I1 基本思想及方法! n$ Z% }& `# h
$ {/ }5 O$ \4 f! Q$ v* C( C2 @! f0 I
$ w, l/ _) T$ L* j; E% R% B) _$ `/ I 9 u$ n4 \7 J; c; ?; e7 P( d. f ' }, y4 o+ l k& f1 确定各个主成分的方法 ^. [! X2 Y& u9 b
一个主成分不足以代表原来的 p 个变量,因此需要寻找第二个乃至第三、第四主 成分,第二个主成分不应该再包含第一个主成分的信息,统计上的描述就是让这两个主 成分的协方差为零,几何上就是这两个主成分的方向正交。具体确定各个主成分的方法 如下。 & N+ \* D% P$ L4 R* q
' t1 L2 _$ F; r) O * K+ S1 s( ^4 n; t8 ? h* i$ u4 Q# r$ k; c( O
0 D$ \; }3 }8 s; ?* u5 W6 ] J
2 注意事项5 c% |+ E u# S; h, n8 U8 v
1)主成分分析的结果受量纲的影响,由于各变量的单位可能不一样,如果各自改变量纲,结果会不一样,这是主成分分析的大问题,回归分析是不存在这种情况的, 所以实际中可以先把各变量的数据标准化,然后使用协方差矩阵或相关系数矩阵进行分 析。( }" e6 Y [2 W* [7 A
* x0 y9 k& X3 [$ K 2)为使方差达到大的主成分分析,所以不用转轴(由于统计软件常把主成分分 析和因子分析放在一起,后者往往需要转轴,使用时应注意)。6 y! p, g( }' K: P3 E2 i
4 E, M' d: G7 l7 |* |
3)主成分的保留。用相关系数矩阵求主成分时,Kaiser主张将特征值小于1的主成 分予以放弃(这也是SPSS软件的默认值)。7 S/ K8 r1 @! i) w
; c Y7 W# P, C7 R; _ i% [$ Z 4)在实际研究中,由于主成分的目的是为了降维,减少变量的个数,故一般选取 少量的主成分(不超过5或6个),只要它们能解释变异的70%~80%(称累积贡献率) 就行了。 下面我们直接通过主成分估计(principle estimate)进一步阐述主成分分析的基 本思想和相关概念。 R- k. s7 ^4 D ) q) y8 B2 A. e3 ]8 c! R5 s2 主成分估计 % H' f7 ^( y( H7 m. w5 q; R
主成分估计(principal component estimate)是Massy在1965年提出的,它是回归系数参数的一种线性有偏估计(biased estimate),同其它有偏估计,如岭估计(ridge estimate)等一样,是为了克服小二乘(LS)估计在设计矩阵病态(即存在多重共线性) 时表现出的不稳定性而提出的。 + V9 t, ~4 @' ^2 p( c
6 x) k- D) m4 [( Z; ^
主成分估计采用的方法是将原来的回归自变量变换到另另一组变量,即主成分,选择其中一部分重要的主成分作为新的自变量(此时丢弃了一部分,影响不大的自变量, 这实际达到了降维的目的),然后用小二乘法对选取主成分后的模型参数进行估计, 后再变换回原来的模型求出参数的估计。 6 |5 x: P& u6 m% N
; F7 _$ g) ~7 B $ {) t8 }/ I( Y
" O0 s# C1 {$ L; i, X1 k- X! { W( i. O( X' Q & o. m. R; i3 A" U, p0 y: V [1 Y! q: t9 ~9 r2 m
$ l3 Q5 z; i U- S7 P+ j Y* l' @5 _) ]1 L8 C