数学建模社区-数学中国
标题: BP神经网络进行数据预测(matlab版) [打印本页]
作者: 2744557306 时间: 2023-8-19 15:20
标题: BP神经网络进行数据预测(matlab版)
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。
通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。
8 O1 {4 S% }9 K, z/ Q以下是bp神经网络的简单介绍:+ g; Z' I1 j% R$ T. e
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。
BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。
BP神经网络的学习分为两个过程:前向传播和反向传播。
前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。
反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。
在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。
BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。
" {/ {' I" N2 n1 _" N
M9 Q( q: G; L; ]! ^
以下是对给出的代码的详细解释:; i/ x9 q5 e* \; v8 U. V
clc % 清屏
5 [& U* T( s7 pclear all; %清除内存以便加快运算速度
5 ]" ?) R/ S7 B8 W3 Hclose all; %关闭当前所有figure图像
: `2 c7 `9 x8 S! J |这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。& e! K; Z5 z+ R" t, X( P
* r) K0 o, x5 J7 Z6 ]' F, U
' l8 X, f6 U# L* qSamNum=20; %输入样本数量为20
; l( ?! n' f* @TestSamNum=20; %测试样本数量也是20
7 d* s2 Y0 I4 j; g. ?+ R3 vForcastSamNum=2; %预测样本数量为2
/ T @% [7 G3 [/ S; F3 eHiddenUnitNum=8; %中间层隐节点数量取8,比工具箱程序多了1个
2 t+ @3 c. l- R5 [InDim=3; %网络输入维度为34 b& @# o2 {) s) O% q, J0 U
OutDim=2; %网络输出维度为24 A$ f% @8 D* f) k, D
定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。" v# E" K1 Z9 {0 W& {) [
, k; H5 m& @5 A9 B" J3 [& d' B& B' J
%原始数据 ! n% P$ q: G0 }$ R" \+ Q, P
%人数(单位:万人)4 E7 |# C' x0 M+ P$ {' c! V% j* d
sqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...
- i* b$ A2 G' H 41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];
) e; U$ r3 E0 r# H4 ]%机动车数(单位:万辆)5 z% P: D* l, j+ H
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
& p2 y: E, s' q' o3 ?: ? n 2.7 2.85 2.95 3.1];( V, S% s( \4 g, p' j
%公路面积(单位:万平方公里)+ Z: R* E G* d$ _
sqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ...
0 L) d0 G" m# K# D: |4 j 0.56 0.59 0.59 0.67 0.69 0.79];
7 _: _3 p- ~0 J- o. y! [3 V% {! k%公路客运量(单位:万人)
7 H1 Y- \' c- a" oglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
" t5 e+ H, P8 {6 K2 `$ l 22598 25107 33442 36836 40548 42927 43462];. B; c$ q" O1 k# s
%公路货运量(单位:万吨)8 P1 x- a1 X' {) K( \7 w
glhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...7 i2 X. v& `8 \7 I
13320 16762 18673 20724 20803 21804];: U" E9 d4 b" V8 E2 g
p=[sqrs;sqjdcs;sqglmj]; %输入数据矩阵
- p6 c, R& h" p8 x) J" X) q1 g; Xt=[glkyl;glhyl]; %目标数据矩阵, B- U9 _8 O4 [! a) b9 h0 L
[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化
+ S' v' O5 S" A0 d给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。
% y5 ?: a6 z' C4 x& g u# _# y% v' F% @& O
) E V5 }) e" }; t! f7 ?3 _" f d: p
rand('state',sum(100*clock)) %依据系统时钟种子产生随机数
7 v: L d+ m$ Q; v/ [ L3 hNoiseVar=0.01; %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合) G J" n3 O. }, `' a) H; X
Noise=NoiseVar*randn(2,SamNum); %生成噪声
5 K1 e! ` Z3 d$ I* aSamOut=tn + Noise; %将噪声添加到输出样本上4 N+ \5 a" B' E5 J6 i
设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。
* G# H- ^9 M4 p3 T1 o' X9 g; B6 E8 d8 F3 f+ Q4 p2 ^+ i8 W
# ?! X1 X7 ]+ `% O2 m" P. c
TestSamIn=SamIn; %这里取输入样本与测试样本相同因为样本容量偏少
5 l* \" w, U+ [# bTestSamOut=SamOut; %也取输出样本与测试样本相同- s) S* f3 S u& A
将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
, y4 D t' G. X
. w, |& F9 l0 r) e+ z1 }4 B, C" b
MaxEpochs=50000; %最多训练次数为500006 K7 A9 ~5 b! w' j9 y1 |, D
lr=0.035; %学习速率为0.0353 j8 v7 E F! G; f& y" |; e
E0=0.65*10^(-3); %目标误差为0.65*10^(-3)2 d/ H0 r4 y, }
W1=0.5*rand(HiddenUnitNum,InDim)-0.1; %初始化输入层与隐含层之间的权值
) v9 x% x' g$ A T2 uB1=0.5*rand(HiddenUnitNum,1)-0.1; %初始化输入层与隐含层之间的阈值
( `& ^' o7 F+ f* K3 O( g0 JW2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值
/ l- ^) r; G* Q$ S+ q1 oB2=0.5*rand(OutDim,1)-0.1; %初始化输出层与隐含层之间的阈值
2 e0 P% Q7 b, Z定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。) F9 Q: P( }4 @" k
: ?' W2 \9 E/ x8 a+ U
' z6 D' J- I k8 m5 U2 C
ErrHistory=zeros(MaxEpochs,1); %给中间变量预先占据内存
: |( i. ]6 }' W$ p' r+ ^for i=1:MaxEpochs
* N" g* ?9 R4 I0 R# E/ |* T8 ]
( Z" w, E H; b: b: f* m HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出% L. T6 a y! j+ H% |5 h& @
NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum); % 输出层网络输出" D! h* w9 M" `6 Y3 P
Error=SamOut-NetworkOut; % 实际输出与网络输出之差
5 J7 O/ ?: X8 y; M2 u" { SSE=sumsqr(Error); %能量函数(误差平方和)6 _. s; {8 C! V9 W: E
ErrHistory(i)=SSE;( F: a, x6 B! Y3 j0 B% }
* Z1 f0 v: ?+ d3 Z* ?" P; c$ {0 O
if SSE<E0,break, end %如果达到误差要求则跳出学习循环
9 D' h: ]. c) Q
9 O" D7 ~0 O7 E+ x7 K% ?. W % 以下六行是BP网络最核心的程序
, b& |& `1 h0 O# @4 u0 Q % 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量
; k" d; S. J/ k" r Delta2=Error;3 d3 j1 w; n6 p& L0 `& j; G1 Z' ^
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut); 5 x5 |7 A: Y' t* F! E
6 n* @6 d& C3 @" @- } dW2=Delta2*HiddenOut';" f0 w6 |& P7 N- ?; \6 a( `- A
dB2=Delta2*ones(SamNum,1);
4 r2 [% a. h3 y! q& s8 u! e. e5 b$ f Q8 F
dW1=Delta1*SamIn';
8 x8 \8 z% e5 O9 B* k/ J dB1=Delta1*ones(SamNum,1);: \4 s: R8 C8 r
%对输出层与隐含层之间的权值和阈值进行修正
3 n& l7 {( o; c- w& d W2=W2+lr*dW2;
4 ?, u. Z. Z1 [& }5 Q2 S; N5 x B2=B2+lr*dB2;6 S, ]1 \& l5 @: I
%对输入层与隐含层之间的权值和阈值进行修正
7 F; D2 j1 I1 i W1=W1+lr*dW1;# {4 E& A) D3 E% W) L
B1=B1+lr*dB1;2 I9 z" p- I0 h9 e/ U7 c2 B1 \
end
8 a* u; M0 w9 d" v/ Q8 X" q使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。
. r0 S. F# o* t& Q9 V- U4 V& y, X8 H7 e7 O. ^1 [+ `, U
1 T& ^& n2 w/ q
HiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果/ R) L$ o. _3 ]+ \5 {
NetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum); % 输出层输出最终结果
4 ?1 F1 }( @: s& P+ N! ~8 w2 ~a=postmnmx(NetworkOut,mint,maxt); % 还原网络输出层的结果7 G1 a' q" u1 }' M9 J& s8 ~) |
x=1990:2009; % 时间轴刻度5 h7 Q- b8 M- [% Q
newk=a(1,
; % 网络输出客运量
0 @( d) X0 Y9 J" r. O- ynewh=a(2,
; % 网络输出货运量
! ]$ I0 ~. L: n& m `) r( j. H- ]0 @figure ;& \1 x4 k& [" g5 t% q# h( j+ K
subplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+') %绘值公路客运量对比图;- |! Z$ H2 G( U3 @' e4 S
legend('网络输出客运量','实际客运量');) y4 |8 K+ V8 A
xlabel('年份');ylabel('客运量/万人'); w5 C: A' @0 o+ k
subplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+') %绘制公路货运量对比图;$ M% q* O6 J1 O$ i% a2 _% o$ n0 j' g
legend('网络输出货运量','实际货运量');
5 T; f) F: P* t! \2 cxlabel('年份');ylabel('货运量/万吨');
. k6 p3 h6 T; j# w使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示! T/ r9 a1 j( T+ @* l) ?! a: ]
$ J! h& v6 t& v0 j
pnew=[73.39 75.55! y$ C- [' {& K9 @5 T& G
3.9635 4.0975
: g- b0 d1 C. e- h: H. W0 s 0.9880 1.0268]; %2010年和2011年的相关数据;) c: K6 |& H; P+ Q
pnewn=tramnmx(pnew,minp,maxp); %利用原始输入数据的归一化参数对新数据进行归一化;
# _$ q9 A4 y$ g+ ^HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果* c2 L# C" E8 U4 t
anewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum); % 输出层输出预测结果
# N7 V, U1 N" k" l# w' |- {. c%把网络预测得到的数据还原为原始的数量级;
\) Z6 C# D9 a0 f8 s$ Zanew=postmnmx(anewn,mint,maxt);. k6 i; W) ?; } T
7 J5 h2 m' f+ V# k
给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。
% h6 q' r+ M$ ^; M2 c4 q该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。+ S4 t1 \' d8 C+ Z) u; l" Y# e/ M
, s/ @. a6 r" l& L7 P
对于代码将以附件形式给出
- d1 I' O) F: H* P% B, h& R+ I* a- J% v7 ~
8 P9 ^! ]$ _+ B- }9 e
: w# s) s* a" K- l
-
-
bp_theroy.rar
2.23 KB, 下载次数: 0, 下载积分: 体力 -2 点
售价: 3 点体力 [记录]
[购买]
欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) |
Powered by Discuz! X2.5 |