- 在线时间
- 90 小时
- 最后登录
- 2018-12-27
- 注册时间
- 2016-4-22
- 听众数
- 17
- 收听数
- 0
- 能力
- 20 分
- 体力
- 23472 点
- 威望
- 2 点
- 阅读权限
- 200
- 积分
- 7535
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 126
- 主题
- 100
- 精华
- 2
- 分享
- 0
- 好友
- 6
升级   50.7% TA的每日心情 | 开心 2018-6-4 15:01 |
|---|
签到天数: 7 天 [LV.3]偶尔看看II
 群组: 2018年大象老师国赛优 群组: 高考备战 群组: 2018中小学数学建模冬 |
统计算法总览5 i! P2 r5 g7 s$ s6 i
6 D5 Q+ {7 u$ M" K C8 e
统计一词源于国情调查,一般来说包括三个含义:统计工作、统计资料和统计科学。其中统计工作是指的搜集、整理和分析客观事物总体数量方面的资料,统计资料则是由统计工作所获得的各项数字或文字资料,一般反映在图表、分析报告、统计年鉴里面,而统计科学则是指导统计工作的原理、原则和方法。9 @5 q1 Y, A$ j
因此,在数学建模比赛中统计问题一定要有文献资源和数据资源的搜集,并且这一部分内容也要反映在论文中,而整理通常来说是将搜集到的资料以图表的形式呈现在论文中,最后分析自然就是数据预处理和统计算法建模求解。
; k3 A& a) U i7 p1 U; N6 u* f, r9 p6 f: t2 j4 U1 H& ]) m1 m
1.预测
( z2 w3 F! c* Y' K* J1 A9 v. e- Z; V! c% W9 i G
预测,顾名思义,即根据先用数据规律推算接下来的数据。而预测按照算法可以分为四大类,一为回归分析,二为概率估计,三为时间序列,四为机器学习。
4 I- c+ n7 C) i
0 T U, W5 ~/ X" u, i(1)回归分析0 d1 k5 B$ v# {
! Z: e" V% @! L1 b$ D4 E6 n# H/ d* a* v1 f 对于回归分析,该类算法适用于求解单一输出的问题,在某种程度上可以叫做函数拟合,即利用一种函数去逼近原有数据 。我们在高中阶段学习的线性回归就属于一种预测方法,下面给出几种函数类型:! y, @9 [3 k' \/ `
, U& ^. \: _, i- \3 r' l/ _+ \2 w 多项式拟合:
$ R7 F: C; N3 Z' f8 c
) D9 O* K3 C( q8 o- M$ a 非线性拟合:
' O$ M9 M% v" A! {; x
' Q4 j( e) X, N& Y) {" [" O 多元拟合:
# s6 c& k, X" m. F; `& d1 t3 p( ?
如下图所示,该图像是利用了非线性函数对原有数据进行了逼近,有了函数自然也就可以根据输入计算出接下来的数据,所以回归分析也只适用于单输出问题。而回归分析的关键问题就是对某一函数模型的参数进行求解,matlab中有专门的拟合工具箱polyfit和lsqcurvefit:
& T' z; g5 v, L9 j* Y2 Y" v( T, N* F' f9 @- O
这里小编用MATLAB编了两种基础的回归分析程序。 " H( @3 Z/ s8 d( C
效果如下:/ a" m8 N' o) e
, T* V2 \$ J# U* T1 ?/ a9 k
4 ~/ \. ?# Q" ~7 L/ g" z* Z% G# ^8 z
(2)概率估计
5 c" m1 N0 \, \% R+ b
8 B" F5 A! u+ q 而对于概率估计,其中的代表是马尔科夫链算法,即先给数据划分状态,然后将数据的分布规律用状态转移来解释。最后对于当时数据的状态,利用根据状态间的转移概率可以求得未来的状态概率分布,自然也能求得下一状态的预测值。4 e5 x. a: i) y( P; D5 M
& s! }3 Q* B- K
比方说,我只去A,B,C,D四个食堂吃饭,现在告诉你我吃饭的记录,现在就需要计算我在这四个食堂中的转移概率,如我去食堂A吃过后再去四个食堂吃饭的概率是多少?通过这些转移概率不断推算我下一个要去的食堂,再根据四个转移概率得到最大可能去的食堂。但是这只是离散问题的预测,对于连续问题,自然也就需要将连续数据划分为若干个离散的状态,在使用此方法。: G2 @5 h4 `" I/ r8 l( Y$ Q1 ~
! b" l: q* ]: v/ R* `9 {( A. e2 F 此方法对于初学者来说掌握会比较困难,不过如果能成功使用会为论文添色不少,有兴趣的同学可以自行查找资料了解。(《数学建模算法与应用》一书上有讲解), f6 u& i2 ~' o ?8 g+ x6 T, b
+ |' I0 B0 b8 ~: W J' O
(3)时间序列
% e" c$ B t* V1 D4 E t7 e/ j2 B: S T( J4 K" F4 {
第三类称其为时间序列,因为输入是按顺序的离散值,大多数情况下就是时间,针对此类问题,由于输入以稳定步长增长的,所以不用考虑输入,直接研究输出的变化规律,这一点类似于高中学的数列,比方说有名的斐波那契数组:1,1,2,3,5...,它的数据特征是f(n+2)=f(n)+f(n+1),现在我们要求后面的数就直接利用该数据特征就行了,当然也可以求出其通项公式,有兴趣的同学可以求着试试。
) x& s/ Y' |/ a6 I+ i9 _' M* O2 p- D, z( T. t
而时间序列方面的算法其实就是猜测数据前后存在着什么关系,比如说:一次移动平均算法就是猜测每一个数据 与最近的部分数据的均值存在着某种关系,指数平滑法就是猜测每个数据都跟之前的历史数据的加权平均存在着某种关系。这些算法都可以算作是时间序列算法,不过以上算法都是对数据特征简单的猜测,而对于更复杂的数据特征则可能会用到微分方程,利用微分方程,即可以直接预测,还能用于灰色系统,从而将无规则数据转化为有规律的生成序列。
9 B( r$ v4 l& z5 a5 ^0 X! Z/ n% n$ _& @
(4)机器学习( o0 u% C0 Z0 @* @8 Y. U
* l) k# Q6 U( M5 [6 n: v
最后一个就是机器学习,即我们只需要搭好框架,数据特征则会由其自己挖掘,比较有名的有:支持向量机(SVM)、决策树、神经网络(深度学习)。这种算法的最终目的是模拟人脑的结构,它的好处就是在搭建好网络结构之后,通过对已有数据的学习,网络会自行提取数据特征,然后只要我们输入一个数据,网络将自行计算,然后输出它的预测值。这种方法的优点是方便,无需考虑数据规律和数据维度,而缺点则是要求数据量要大,少量样本的训练效果一般不具有适用性。2 H8 m: |- N$ M1 ]6 b: t. c
5 I% Q2 V7 W/ r9 Z; O0 h t(5)模型检验
f$ K8 z! V8 v2 I5 l8 @/ Z2 h# U N: N! O. r2 n- I
预测问题中尤其还要注意的是对结果的检验,通常使用残差和后验误差等作为概率统计的检验,也可以用均方误差MSE检验。. m' d& y- K+ {+ Q* j
2 P! m3 e1 _! O3 Y9 x 残差值反映了预测值和原始数据的相对差距:
7 q4 D q z9 P- [8 I; ^
& B- r) x) h2 Q& z u
; J3 O/ v- S6 l" v# d
; l' a5 G* K" T0 G 后验误差反映模型的精度:
+ ~9 @9 [; o! _% \
8 ~. R' S7 Y. }$ R& z. j% F4 ~! F( }1 O" R" L+ b, W1 k& P f3 x
0 h* R- l. ?& ~' l0 [- F 然后依据下表判断模型精度:
5 K1 {" O" G* T1 _5 V+ U- d0 T3 d9 \
; U, _! |8 m3 i6 s4 |* P: H2 H9 B
. X8 C* N' r! |$ U5 p4 v& {6 W# C! n
均方误差则是一个简单的误差效果:
3 V6 h4 ]% V3 X+ t! H0 D* r- Y
; W6 |2 m v+ T/ C2 C
1 `/ |# j7 m9 D
: }7 C+ z- ]! P# A% d
2.分类/聚类
; b# A* S9 `* k# |# x3 f$ }
( m6 `& e2 M$ C) `4 @4 d首先要弄明白分类和聚类的区别:
: v, v' K# C, x$ v6 f5 p
; v7 Z# o( E$ L3 M 分类(判别):数据包含数据特征部分和样本标签部分,分类的目的就是判别新的数据特征到其应有的样本标签(类别)中。
5 h& U: ~1 F1 _) I8 X0 K+ i8 K* m0 w' h' t& V
比方说,现在告诉大家一个教室里面其中一半人每个人的性别(男女),现在需要大家将另一半人中每个人的性别判断出来,因此大家首先要做的的找到区分性别的特征,然后应用到另一半人身上,将其归类。% o3 x& ]! F d# A+ f! f5 V: s6 X: \- a
& V" q% j8 F2 k; z. z8 E* [' ] 聚类:数据中只有数据特征,需要根据某一标准将其划分到不同的类中。
+ f* Y7 s% {3 q4 U7 r3 b# ~( |5 v2 j9 M& N- Q. x
同样的,现在一个教室里面所有人都没什么标签,现在需要你将整个教室的人分为两类,那么你可以从性别、体型、兴趣爱好、位置等等角度去分析。- k; ~- u8 y7 s3 U! T p
9 k1 I1 |5 |) O
可以看到,分类其实跟预测差不多,只不过输出是一维的,并且还是整数,所以可以用预测中的机器学习方法来解决分类问题。而聚类则不同,一般来说,聚类需要定义一种相似度或者距离,从而将相似或者距离近的样本归为一类,常见的有:kmeans算法、分层聚类、谱聚类等。
: T2 b+ A2 k; E d u3 U% e. p$ a9 j; B; t0 o) N0 X- s8 e" u \
对于聚类来说,除了相似性的度量之外,还有一个比较重要的是终止条件,即需要聚成多少类,一般来说,基本都是在聚类之前就设定好需要聚成多少类,其中kmeans就是先设定几个类中心,然后将与类中心相近的数据归到那一类,然后不断更新类中心,直至所有数据聚类完毕,而分层聚类则是相反,先将所有数据各自为一类,然后将相似的类合并,直至达到k类为止...
3 ]2 f5 B4 }$ m* E) m! B 当然,也可以将终止条件改为当最小的距离大于某一阈值时,不再合并类(适用于分层聚类),除了这些算法,还有机器学习方法,如:自组织竞争网络(SOM),可以自行了解。* `9 R; n! Q% r
9 b1 P) R% k; P7 H5 b! W, b7 G
接下来我们以分层聚类为例进行讲解,这一部分例子来自于《数学建模算法与应用》,用以辅助说明。通常来说,分层聚类有两类,一类是从上到下的分裂(即现将所有个体看做一个类,然后利用规则一步步的分裂成多个类),另一类是从下到上的合并(即先将每个个体看作一个类,然后依据规则一步步合并为一个类)。因此分层聚类最终可以得到一个金字塔结构,每一层都有不同的类别数量,我们可以选取需要的类别数量。6 a8 a: }2 h) k# k C$ O' A: G
% b; F$ U0 o4 t# A- n2 H 例子:设有5个销售员w1,w2,w3,w4,w5,他们的销售业绩由二维变量(v1,v2)描述:, ?/ i: u9 V9 S" |
\$ r3 h0 _4 ~% h! J- N! p# W
8 X( c( z8 O! [. v1 Z
3 N9 m* ?5 u* D) `. R8 ]; N
将5个人的两种数据看作他们的指标,首先,我们简单定义任意两组数据的距离为:
4 Q& A. R2 X& b1 c* ~3 G1 ]7 \
) f. F- [3 h, Q9 V R) t, x( [" n
0 A; w/ ]$ n& S6 a/ U
: Z. j" q4 [- Q
与此相对应的,当有样本归为一类后,我们要计算类间距离就又得需要一个计算方式,我们定义任意两类间的距离为两类中每组数据距离的最小值:
. [" D6 Y" M0 x2 Z) O' p# ~# b+ n. V

& Z% ^- V$ X4 \0 O: Q
5 a0 {8 M# P/ d 因此,可以得到任意两个销售员的数据距离矩阵:/ X4 G: x: P/ S- Z# q/ O% \
# S% Z7 ~% R0 _" y+ A8 {/ `+ X
4 ?3 e3 J$ r w6 d# ^4 S, K6 F7 F0 f0 ?+ c& h- k
Step1 首先,最相近的两组样本是w1和w2,他们的距离为1,所以先将其聚为一类;
+ ?2 N. T# I; W0 ?( p4 J. C3 P8 P$ E
Step2 然后,剩下的样本为{w1,w2},w3,w4,w5,我们发现除了距离1之外,最相似的是 w3,w4,他们的距离为2,所以将其聚为一类;
* P5 d( h# U0 h" ?. S1 ~2 c* M ]+ f, e9 v$ k: U" r
Step3 然后,剩下的样本为{w1,w2},{w3,w4},w5,我们发现除了距离1,2之外,最相似的 是{w1,w2}和{w3,w4},他们的距离以 w2和w3的距离为准,距离为3,所以将这两类聚为一类; & v1 Z& P W; f' r& d* s
. d+ r0 H: b; X& G' t# u
Step4 最后,剩下的样本为{w1,w2,w3,w4},w5,只剩最后两类了,所以最后一类为 {w1,w2,w3,w4,w5},类间距以w3/w4与w5的距离4为准。& P, H# N9 U+ u5 M; c. n0 R1 x
; S) w! `6 c, T9 g' e/ [6 Z用matlab编程结果如下:( Z; P: _0 F, K" d
1 Q# ~6 b& x7 Z7 G9 }
: A9 o) H5 E1 t: y+ v5 ?
% S6 B. Q! y m4 l% b7 |; M& @# S8 g
2 F3 u; Q$ v' g( L9 J: B2 h% E( {0 }* j: L* M
" L) T. a7 n- }6 m+ W
7 i: c4 l. I7 P% d7 l8 A2 J |
zan
|