QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4267|回复: 0
打印 上一主题 下一主题

[参考文献] 数学建模 ————统计问题之预测(一)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-5-6 10:01 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    统计算法总览' ^2 K3 i; S+ R, i# L
           统计一词源于国情调查,一般来说包括三个含义:统计工作、统计资料和统计科学。其中统计工作是指的搜集、整理和分析客观事物总体数量方面的资料,统计资料则是由统计工作所获得的各项数字或文字资料,一般反映在图表、分析报告、统计年鉴里面,而统计科学则是指导统计工作的原理、原则和方法。
    2 A  N: V5 x. U9 y$ `       因此,在数学建模比赛中统计问题一定要有文献资源和数据资源的搜集,并且这一部分内容也要反映在论文中,而整理通常来说是将搜集到的资料以图表的形式呈现在论文中,最后分析自然就是数据预处理和统计算法建模求解。) z' n# n: T* k7 C, j
    * E) S- K9 i( f& A* A- P, w
    1.预测1 J$ I( d# |0 X9 P/ x* ~# R( F$ F
           预测,顾名思义,即根据先用数据规律推算接下来的数据。而预测按照算法可以分为四大类,一为回归分析,二为概率估计,三为时间序列,四为机器学习。
    ( [3 U/ G8 P5 C4 a- f4 U5 P1 v% e1 F! T& I' |! A" Y
    (1)回归分析
    . l: S4 s* q7 L& @9 ^       对于回归分析,该类算法适用于求解单一输出的问题,在某种程度上可以叫做函数拟合,即利用一种函数去逼近原有数据 。我们在高中阶段学习的线性回归就属于一种预测方法,下面给出几种函数类型:9 X& W! W2 K4 g1 ?4 Z
    # ]" K9 m5 n  J7 \% L8 E
    1.png
      ]: y! ~1 h, h1 E9 m' \1 B1 y  c/ A0 d9 A; S! T" X
           如下图所示,该图像是利用了非线性函数对原有数据进行了逼近,有了函数自然也就可以根据输入计算出接下来的数据,所以回归分析也只适用于单输出问题。而回归分析的关键问题就是对某一函数模型的参数进行求解,matlab中有专门的拟合工具箱polyfit和lsqcurvefit:6 `! ]7 \0 P0 k6 q/ s" Z+ A" @
    2.png 7 a9 `4 i2 }" d% H" Y/ Y9 G
    - I5 e& S; Q/ B$ z

    , T5 y6 J0 [6 l: A8 W3 L2 L. K
    . y, I7 X( T% d7 d  A4 j1 M     这里给出matlab两种基础的回归分析代码:% n4 r5 v# ?7 [& A
    0 Y& P( W. V5 i7 v3 {0 r# }
    * K  A0 W1 Y- M4 r* D# T
    clc;/ c0 _0 a' x3 p& c4 N
    clear;3 M% d$ A5 z5 N' \. V8 @
    close all;
    ' D9 M. n$ _: `; e. c%% 线性最小二乘拟合
    , D1 g" V/ o$ B' t9 V, P" zx = 0 : 0.1 : 1;%输入
    : Z0 |; _2 B7 U2 F% Ly = [-0.447 1.978 3.28 6.16 7.08 7.34 7.66 9.56 9.48 9.30 11.2];%输出
    ( Q- Z( b* S% r1 P# n; {' k7 k& yA = polyfit(x, y, 2);%设定多项式最高次为2,且输入输出长度要一致,并输出多项式系数A
    * b/ c  ~% k/ t4 A5 {5 S, D& z; Wz = polyval(A,x);%将多项式系数导入,即得到函数,然后输入数据x,得到输出数据z
    ( f& l+ y* `* B  W7 s( Rfigure(1)# G% ^  u2 R* ]( o5 U
    plot(x, y, 'k+', x, z, 'r') %将原数据以“黑色十字”散点绘出,然后将函数以红色曲线绘出
    2 M+ O7 v" R7 ^% q) F- v- m9 `" ~& Utitle('线性最小二乘拟合');
    , G6 ?* u6 Q8 ?* g
    / N# s' u$ J; q8 E# Q  H  W2 P%% 非线性最小二乘回归- ~' p5 m- {! w. k, R
    f = inline('a(1)*x+a(2)*x.^2.*exp(-a(3)*x)+a(4)','a','x');%定义一个非线性函数,变量为系数a和自变量x/ }$ b$ ^: ^" P! Y8 a
    a = lsqcurvefit(f, [1;2;2;2], x, y);%设定系数a的初值为1 2 2 2,然后开始求解;2 L9 s( c( F# ^2 n; a- Y
    figure(2)2 z) ^* H' g! ^) V" U
    plot(x, y, 'k+', x, f(a,x), 'r') %将原数据以“黑色十字”散点绘出,然后将函数以红色曲线绘出- |$ l1 r3 J* s. N/ _
    title('非线性最小二乘拟合');% z$ q" e4 R' L( i+ O
    , b' m6 m: [8 C! x6 j8 L8 [7 z

    ) L% D8 W4 p% T7 ^' j0 |      效果如下:
    $ x3 M- E+ D1 ?% X 3.png
    % v3 C% i! J$ c" [% a
    & n# y' g  d, M8 s/ B (2)概率估计9 |1 }4 }: }/ b7 x) E4 M
           而对于概率估计,其中的代表是马尔科夫链算法,即先给数据划分状态,然后将数据的分布规律用状态转移来解释。最后对于当时数据的状态,利用根据状态间的转移概率可以求得未来的状态概率分布,自然也能求得下一状态的预测值。
    : H' j" m8 B7 X1 }# g' ?0 \6 i9 P1 K( H$ Q: l, |. T  j: |
           比方说,我只去A,B,C,D四个食堂吃饭,现在告诉你我吃饭的记录,现在就需要计算我在这四个食堂中的转移概率,如我去食堂A吃过后再去四个食堂吃饭的概率是多少?通过这些转移概率不断推算我下一个要去的食堂,再根据四个转移概率得到最大可能去的食堂。但是这只是离散问题的预测,对于连续问题,自然也就需要将连续数据划分为若干个离散的状态,在使用此方法。3 S2 H2 o9 p' @0 ]8 E( b/ M
    & r) {/ M2 ^) _, ^
          此方法对于初学者来说掌握会比较困难,不过如果能成功使用会为论文添色不少,有兴趣的同学可以自行查找资料了解。(《数学建模算法与应用》一书上有讲解)
    2 {4 A0 n/ v0 U/ a
    : u) n+ l+ f8 H3 ^: ~2 _(3)时间序列) C! w* B) l' _" h# \: F2 ^
           第三类称其为时间序列,因为输入是按顺序的离散值,大多数情况下就是时间,针对此类问题,由于输入以稳定步长增长的,所以不用考虑输入,直接研究输出的变化规律,这一点类似于高中学的数列,比方说有名的斐波那契数组:1,1,2,3,5...,它的数据特征是f(n+2)=f(n)+f(n+1),现在我们要求后面的数就直接利用该数据特征就行了,当然也可以求出其通项公式,有兴趣的同学可以求着试试。3 @( |6 Z" h$ Q. ~1 y0 O

    7 L* E8 g+ L; N1 v9 F$ ]       而时间序列方面的算法其实就是猜测数据前后存在着什么关系,比如说:一次移动平均算法就是猜测每一个数据 与最近的部分数据的均值存在着某种关系,指数平滑法就是猜测每个数据都跟之前的历史数据的加权平均存在着某种关系。这些算法都可以算作是时间序列算法,不过以上算法都是对数据特征简单的猜测,而对于更复杂的数据特征则可能会用到微分方程,利用微分方程,即可以直接预测,还能用于灰色系统,从而将无规则数据转化为有规律的生成序列。$ U9 ?6 U# {7 X* L# F. s
    . @5 a/ o5 g5 M
    (4)机器学习( G5 S  e8 C5 y# |
            最后一个就是机器学习,即我们只需要搭好框架,数据特征则会由其自己挖掘,比较有名的有:支持向量机(SVM)、决策树、神经网络(深度学习)。这种算法的最终目的是模拟人脑的结构,它的好处就是在搭建好网络结构之后,通过对已有数据的学习,网络会自行提取数据特征,然后只要我们输入一个数据,网络将自行计算,然后输出它的预测值。这种方法的优点是方便,无需考虑数据规律和数据维度,而缺点则是要求数据量要大,少量样本的训练效果一般不具有适用性。4 s) h% a; S7 U% V/ b5 T
    + e- t  P7 h2 I0 o, ]
    (5)模型检验
    : f) r+ @9 G7 _, U3 K" p       预测问题中尤其还要注意的是对结果的检验,通常使用残差和后验误差等作为概率统计的检验,也可以用均方误差MSE检验。4 B& m$ n0 s; P/ L: u5 N
    5 J: f7 W8 h, J
           残差值反映了预测值和原始数据的相对差距:
    3 y" A0 c2 A; `. N, |5 s
    3 Z" w' D" N3 e: G- W! [; [ 4.png # J5 _+ e7 o& e  c3 r; F+ s  m
    + c5 N2 C9 b. k$ T0 }) p
    ( J9 E% @/ r4 x7 U# p
           后验误差反映模型的精度:1 V" b) K' x$ O# U

    ! J: b' B0 M+ d7 g  K4 i 5.png 9 B. Y4 O% N1 e( f. u4 D

    ) V1 E" x' J! c0 G( q
    8 y+ r8 G& x7 F" {2 N0 V
    0 G' r; K& ?0 Q2 h" x" |       然后依据下表判断模型精度:
    6 M$ K4 Q% n  \5 V/ J/ t
    . P$ j+ E6 P  L1 g  p  O# w5 `. \ 6.png 5 q! }3 Z, P( N( w- U8 o

    ( K4 ?: Q, q2 Y/ B6 n. \  c1 l* r: h      均方误差则是一个简单的误差效果:6 r5 U' F) e9 k4 v; n
    7.png 1 u/ B9 ~8 w% q, p7 s

    / o  C' a" N- q/ `% Y1 ^/ L7 T9 Q$ _, R( N6 G- I
    ————————————————
    , `" ]0 i) x6 T% X, Z* c版权声明:本文为CSDN博主「nightmare_dimple」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。; E% F2 `$ O0 O' M2 A
    原文链接:https://blog.csdn.net/nightmare_dimple/article/details/742644916 ^! _$ g6 C& s, i
    5 }* U! L, p1 U$ q( }4 a* l8 R

    , m2 h& q% P. t7 p* w, N" ?$ Q% L4 K
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-11-8 05:11 , Processed in 0.326008 second(s), 53 queries .

    回顶部