QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1553|回复: 0
打印 上一主题 下一主题

BP神经网络进行数据预测(matlab版)

[复制链接]
字体大小: 正常 放大

1175

主题

4

听众

2838

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-8-19 15:20 |只看该作者 |正序浏览
|招呼Ta 关注Ta
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。
通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。
# f+ Q3 }! v0 s
以下是bp神经网络的简单介绍:  a* J$ Q- O( C2 L
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。
BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。
BP神经网络的学习分为两个过程:前向传播和反向传播。
前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。
反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。
在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。
BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。
0 k. o4 f' I! M4 ~  A

& x$ u/ j5 y& O& q1 b- n以下是对给出的代码的详细解释:5 R6 a5 `) ?! b6 @* D* Z0 _
clc                          % 清屏
8 `/ K2 t( ?9 d3 _% f" D* Tclear all;                  %清除内存以便加快运算速度
4 y- a$ ^6 V. x( L. m0 oclose all;                  %关闭当前所有figure图像4 P7 G' n* Z! D, B2 ^
这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。
& W* e7 \( ^4 _& G* e3 Y2 k+ n( {' i$ D; p6 [

4 \0 l! c. ~5 vSamNum=20;                  %输入样本数量为20. m, I: B1 H4 m) _
TestSamNum=20;              %测试样本数量也是206 X* n, ~* H3 F+ K4 J9 y6 f
ForcastSamNum=2;            %预测样本数量为2
& J' i+ R; i! i) _HiddenUnitNum=8;            %中间层隐节点数量取8,比工具箱程序多了1个
* H9 W6 e! h8 U; u3 VInDim=3;                    %网络输入维度为3
2 r; u  \6 O" Y0 DOutDim=2;                   %网络输出维度为2" G5 z: U0 |3 E; U! x' g
定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。: W# x4 |0 b/ W8 M: F% L
4 x% z$ e" [! p: V
1 }2 I3 f3 I, r- J7 G. U: x
%原始数据 ' p3 b" a/ K( X$ ~
%人数(单位:万人)
7 }$ V% U3 g( i  _/ ~4 v: hsqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...
5 z9 O' T8 `! T/ M# l  w7 Q       41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];
5 u5 H$ |, ^) X* H3 P+ T# f%机动车数(单位:万辆)2 x6 Q: B; D" S3 p
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
  A9 e. c1 s1 u( g- z1 C$ B        2.7 2.85 2.95 3.1];9 i5 m7 A8 m% g, P% f" h) h
%公路面积(单位:万平方公里)1 F- C+ y; O6 T" O. s% s1 g
sqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ...
7 Q5 l8 ~9 P, \/ M         0.56 0.59 0.59 0.67 0.69 0.79];
$ Y0 W! q1 |( b! B" B: Z9 b%公路客运量(单位:万人)
( C6 A: b- z5 o( H. F4 sglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
; e8 A/ M& I4 k  P/ z        22598 25107 33442 36836 40548 42927 43462];
7 S( e+ M5 K. n  d%公路货运量(单位:万吨)
: A6 U# C+ v5 L' d: tglhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...) {1 @) z! H+ V
        13320 16762 18673 20724 20803 21804];' D8 f1 c8 \; @, d, I
p=[sqrs;sqjdcs;sqglmj];  %输入数据矩阵
/ }  ^  ]" R9 o7 b" R! t7 mt=[glkyl;glhyl];           %目标数据矩阵3 W0 V' @( I; Z& ^# b5 D
[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化) d, f$ n0 f+ s
给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。
% S3 N9 E$ |) q  o( d. S8 c
9 ^6 T8 y  i2 T& U" z; ?: }9 @
; x( R% Q% M+ H$ Z6 i+ [7 t8 i, O7 Qrand('state',sum(100*clock))   %依据系统时钟种子产生随机数         4 k, Y1 n: I! {+ H4 D) M
NoiseVar=0.01;                    %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)
) L# _' w; j; a" T1 r1 PNoise=NoiseVar*randn(2,SamNum);   %生成噪声) |" ]" Y5 O0 d5 E7 T" T$ m
SamOut=tn + Noise;                   %将噪声添加到输出样本上; `- g, n0 y! S/ k% |
设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。7 X# o& o/ l/ \. O! w5 N
0 g' }- n9 H% U. k, l1 Q
' M) B* g# L) ~8 ?
TestSamIn=SamIn;                           %这里取输入样本与测试样本相同因为样本容量偏少
. V& r- r/ M  \% Y+ QTestSamOut=SamOut;                         %也取输出样本与测试样本相同0 }$ |, d; p4 v- D! @7 d
将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
( H7 t! J8 M: [* _9 ?: h* l
1 _9 H# T" p$ K: G& V4 B2 U8 x* b: v9 ?2 _
MaxEpochs=50000;                              %最多训练次数为50000
# P6 w( z- d2 ?3 [* N- M/ }lr=0.035;                                       %学习速率为0.0350 ^, Z: ^$ e1 Q( _; l5 k
E0=0.65*10^(-3);                              %目标误差为0.65*10^(-3)
) ~0 p: X* c, l; |7 q* O2 I1 LW1=0.5*rand(HiddenUnitNum,InDim)-0.1;   %初始化输入层与隐含层之间的权值4 ?2 o  k0 ], F+ z8 q
B1=0.5*rand(HiddenUnitNum,1)-0.1;       %初始化输入层与隐含层之间的阈值
- L$ K2 w- H* s. ?, Z1 f8 [/ mW2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值              
% G5 e- L% z3 g6 q0 DB2=0.5*rand(OutDim,1)-0.1;                %初始化输出层与隐含层之间的阈值4 }: R: w$ j2 V0 t4 I* r3 h; G! }
定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。
: H: j" J2 a8 U7 M  T$ E# Y
) V2 b  n: {  u. o0 q
7 A3 }. r( f; }" X! _  Y) kErrHistory=zeros(MaxEpochs,1);                              %给中间变量预先占据内存# V7 S1 n8 Y. M" L2 t
for i=1:MaxEpochs
! A- N- v# S9 r4 }6 l
  H" a; ?9 H, p& b4 Y4 u    HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出
& A, K! ?7 X) c) z6 u7 r9 {$ N7 V. v    NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum);    % 输出层网络输出' v, R, t, U% n+ P+ a
    Error=SamOut-NetworkOut;                       % 实际输出与网络输出之差4 h8 r! |0 a$ P
    SSE=sumsqr(Error);                               %能量函数(误差平方和): W. z2 V; F) c6 l
    ErrHistory(i)=SSE;! B8 M$ ~& B* b2 N0 I8 T
1 L8 f$ n. W9 G+ L  C8 x
    if SSE<E0,break, end      %如果达到误差要求则跳出学习循环0 v& t3 y+ P3 g( E2 y6 K
8 H6 s& p8 h& h: g! Q
    % 以下六行是BP网络最核心的程序% M" R" I7 Y3 I  P
    % 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量
$ J) ?* S* }; J6 U6 A/ T    Delta2=Error;) t4 _5 b+ }: m' H
    Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);    - ?% N8 P) o" ?) J
' ~  b$ C4 S: S5 l' |
    dW2=Delta2*HiddenOut';7 `7 R% ?/ r& v# a$ _, P
    dB2=Delta2*ones(SamNum,1);
# k# d: N. G0 s2 ~* a" q3 B0 y1 p0 f7 t  Q  G) j
    dW1=Delta1*SamIn';+ }6 r# r7 r' k% |/ t
    dB1=Delta1*ones(SamNum,1);
4 M& ]/ v' B3 |* g    %对输出层与隐含层之间的权值和阈值进行修正& G8 N. ~$ }. J3 X. ^
    W2=W2+lr*dW2;, u; z, }3 m1 |9 F- G( r& U% e
    B2=B2+lr*dB2;3 d/ |* L( z3 v; i  O
    %对输入层与隐含层之间的权值和阈值进行修正4 y3 U( J( u' I1 S9 B! `5 _4 A
    W1=W1+lr*dW1;4 Y* D- v% w7 S, x' ~1 [0 n4 K! z
    B1=B1+lr*dB1;
% B" v8 i5 D. p& M" G' Qend, N; z7 I) q+ ~+ ~1 i
使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。
& T$ Y2 a7 C$ _% C! G7 z
* _  j' E' U+ E. S
% J* b5 {' G; p- I3 b+ C- u1 n2 WHiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果
* P4 }; ?; v' INetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum);    % 输出层输出最终结果
7 {. B' v1 X1 e8 Ba=postmnmx(NetworkOut,mint,maxt);               % 还原网络输出层的结果$ ]; }/ m$ W1 y( n6 X$ G2 d
x=1990:2009;                                        % 时间轴刻度
7 V" M, ^, u9 P' b1 Fnewk=a(1,;                                        % 网络输出客运量
% r( e. n4 i3 B7 n# Znewh=a(2,;                                        % 网络输出货运量4 u/ i8 v3 K# ^( K3 a
figure ;
# t( ~* _6 v! g0 O* `subplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+')    %绘值公路客运量对比图;
2 e  e+ N: q- j3 {2 E* ]legend('网络输出客运量','实际客运量');7 R! s. U/ J# J- H. ]7 [2 {' x; M2 Z7 H
xlabel('年份');ylabel('客运量/万人');& o! [. _; q1 A  t* @" N7 d+ D
subplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+')     %绘制公路货运量对比图;6 v2 c' l; `' x& m6 y- I
legend('网络输出货运量','实际货运量');
) y( m4 N2 P2 S6 n( N# V% K! J! M) xxlabel('年份');ylabel('货运量/万吨');) M  [8 e( B6 S& T( d  g5 h4 w
使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示* }5 p7 ]6 j* g  s8 `/ B8 M4 O- j
8 E8 U' C9 Q( r$ E9 ^8 J( p
pnew=[73.39 75.55
4 `$ J' P/ o; u      3.9635 4.0975
2 n4 _8 E$ g# H      0.9880 1.0268];                     %2010年和2011年的相关数据;! a+ x! Q& c1 `2 E- D2 R
pnewn=tramnmx(pnew,minp,maxp);         %利用原始输入数据的归一化参数对新数据进行归一化;
/ r6 x3 c, s! ~/ D* [HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果
+ ]. K. q: U' E0 {; B. f5 G' Z/ {4 qanewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum);           % 输出层输出预测结果
+ R  ~! T6 Y1 X  U%把网络预测得到的数据还原为原始的数量级;1 h' h3 p4 G/ W" g- w1 J
anew=postmnmx(anewn,mint,maxt);
( K2 {" {4 {  H* _! ]7 D  C
5 d2 R. l' N2 Z$ U给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。
5 g( m  p) B% S( O! M/ E. }该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。& O1 i( G% H# {3 x

7 y6 X( ?; _" \$ x- y对于代码将以附件形式给出# F1 d/ R; }3 }  l! c5 H
& ?9 y6 q" M: o3 t3 h2 x

1 |5 n% p. P+ o( x& ?
# l- K( o/ v% a" Y: p

bp_theroy.rar

2.23 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 3 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-7-26 01:26 , Processed in 0.423751 second(s), 55 queries .

回顶部