9 d. t& M$ a2 Jclc;. k7 e2 ~* C4 u1 u8 X, h2 W
clear; % q7 V" i/ f" ]8 x, iclose all;) I$ P# T7 o& H1 N
%% 线性最小二乘拟合9 _. a+ Q+ s/ L" \) J4 x
x = 0 : 0.1 : 1;%输入& }) @. `8 W2 {% o" n
y = [-0.447 1.978 3.28 6.16 7.08 7.34 7.66 9.56 9.48 9.30 11.2];%输出 $ ?4 }0 U- W5 o: u9 ?' KA = polyfit(x, y, 2);%设定多项式最高次为2,且输入输出长度要一致,并输出多项式系数A" g3 Y1 D8 V9 h
z = polyval(A,x);%将多项式系数导入,即得到函数,然后输入数据x,得到输出数据z 5 ] i+ w0 N; a8 g- t Zfigure(1) ' ^) o# a, C3 |+ {, w- O6 cplot(x, y, 'k+', x, z, 'r') %将原数据以“黑色十字”散点绘出,然后将函数以红色曲线绘出2 X0 n+ f( `5 x! J {2 d+ I. ~
title('线性最小二乘拟合'); 5 n# L9 |, |2 J* h! B& q7 ?$ b 9 i3 U+ C6 L8 B0 T# c7 _%% 非线性最小二乘回归 0 D4 W. {& z! ?4 I4 n9 qf = inline('a(1)*x+a(2)*x.^2.*exp(-a(3)*x)+a(4)','a','x');%定义一个非线性函数,变量为系数a和自变量x . h. i# ?7 u7 F, Ra = lsqcurvefit(f, [1;2;2;2], x, y);%设定系数a的初值为1 2 2 2,然后开始求解;& q+ T" |* G5 x$ ?% X
figure(2)3 ]& E' g* A6 ~1 w+ N! u
plot(x, y, 'k+', x, f(a,x), 'r') %将原数据以“黑色十字”散点绘出,然后将函数以红色曲线绘出 5 K3 ^7 K% W+ Z% ?9 k* Vtitle('非线性最小二乘拟合'); # O9 a5 K( P5 W 4 i- L, _9 Q; { Z) B2 t0 j9 L! z4 O1 C ]1 v) L
效果如下: 4 s# u: T$ i" a) y7 W4 F. e/ W
* u8 D/ L7 u( j6 v( d, W: k2 f (2)概率估计 2 X T( l1 F. I. d I1 Z& j B6 q' f: k7 [ 而对于概率估计,其中的代表是马尔科夫链算法,即先给数据划分状态,然后将数据的分布规律用状态转移来解释。最后对于当时数据的状态,利用根据状态间的转移概率可以求得未来的状态概率分布,自然也能求得下一状态的预测值。; U5 s0 f6 e% N
- k; B7 y) g0 J. t 比方说,我只去A,B,C,D四个食堂吃饭,现在告诉你我吃饭的记录,现在就需要计算我在这四个食堂中的转移概率,如我去食堂A吃过后再去四个食堂吃饭的概率是多少?通过这些转移概率不断推算我下一个要去的食堂,再根据四个转移概率得到最大可能去的食堂。但是这只是离散问题的预测,对于连续问题,自然也就需要将连续数据划分为若干个离散的状态,在使用此方法。9 e d f# `5 H+ B8 b
8 ?6 s/ X, F( A5 x 此方法对于初学者来说掌握会比较困难,不过如果能成功使用会为论文添色不少,有兴趣的同学可以自行查找资料了解。(《数学建模算法与应用》一书上有讲解) . z4 `0 A6 n1 j/ T6 | ! G ]. S( f0 ?6 j/ N$ v(3)时间序列" p F. ^2 D3 ?2 n
. N6 s, S+ U& f% _, i) f9 Y 第三类称其为时间序列,因为输入是按顺序的离散值,大多数情况下就是时间,针对此类问题,由于输入以稳定步长增长的,所以不用考虑输入,直接研究输出的变化规律,这一点类似于高中学的数列,比方说有名的斐波那契数组:1,1,2,3,5...,它的数据特征是f(n+2)=f(n)+f(n+1),现在我们要求后面的数就直接利用该数据特征就行了,当然也可以求出其通项公式,有兴趣的同学可以求着试试。$ K7 D6 d" L& d7 n/ I
" O5 U7 x5 _ c7 y; _$ { 而时间序列方面的算法其实就是猜测数据前后存在着什么关系,比如说:一次移动平均算法就是猜测每一个数据 与最近的部分数据的均值存在着某种关系,指数平滑法就是猜测每个数据都跟之前的历史数据的加权平均存在着某种关系。这些算法都可以算作是时间序列算法,不过以上算法都是对数据特征简单的猜测,而对于更复杂的数据特征则可能会用到微分方程,利用微分方程,即可以直接预测,还能用于灰色系统,从而将无规则数据转化为有规律的生成序列。9 z7 W) x/ _2 k; I+ ~
& |# z) L" c# V
(4)机器学习 5 k4 S$ \4 t! P! v1 Y 2 |, Z0 B. J( _7 h5 ` 最后一个就是机器学习,即我们只需要搭好框架,数据特征则会由其自己挖掘,比较有名的有:支持向量机(SVM)、决策树、神经网络(深度学习)。这种算法的最终目的是模拟人脑的结构,它的好处就是在搭建好网络结构之后,通过对已有数据的学习,网络会自行提取数据特征,然后只要我们输入一个数据,网络将自行计算,然后输出它的预测值。这种方法的优点是方便,无需考虑数据规律和数据维度,而缺点则是要求数据量要大,少量样本的训练效果一般不具有适用性。 + {; p8 k( w. q! y1 M4 P G$ A* K+ ?5 A! a2 {8 n6 t+ L. d
(5)模型检验 9 W) @9 h$ N0 g/ _2 B7 [! l ! `# H. i3 i' l1 w J5 }/ i 预测问题中尤其还要注意的是对结果的检验,通常使用残差和后验误差等作为概率统计的检验,也可以用均方误差MSE检验。 0 C1 L% C* x+ d. Y7 p: l 0 B) h5 T. x, g& ~; x) I 残差值反映了预测值和原始数据的相对差距: 6 Q* f# T$ T# E3 q& R7 a% [% p9 ^* s7 ~* R* F
0 ^1 S! z1 U4 n' M1 Z8 z$ ^$ Y
7 y T5 P1 H6 p$ p; F- y! w4 Z 后验误差反映模型的精度:# q, W1 d( `6 }% ?/ A/ Q6 z
+ H' N J+ s0 v# h; s' ~
; Z' W, R) I' _% W, Q t