QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2013|回复: 0
打印 上一主题 下一主题

BP神经网络进行数据预测(matlab版)

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-8-19 15:20 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。
通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。

: y1 p2 n3 ?+ r6 E3 J6 P以下是bp神经网络的简单介绍:
6 g  K9 ^; B& g2 f
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。
BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。
BP神经网络的学习分为两个过程:前向传播和反向传播。
前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。
反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。
在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。
BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。

& r3 U' m3 D# \( M! y5 @6 @8 \% f
以下是对给出的代码的详细解释:/ E3 d# F( v( k1 J+ F0 |
clc                          % 清屏
1 c5 A/ C% i# Z6 ]7 a& Yclear all;                  %清除内存以便加快运算速度
& \1 Z2 Q% I6 [% @0 z* R+ dclose all;                  %关闭当前所有figure图像& R& S' f1 P' d* R- l. j
这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。
# b2 Z  p5 A! D& u8 b& _
: m1 w4 d5 J$ \$ q' o" R9 w3 z) T& K8 r; i
SamNum=20;                  %输入样本数量为20
) X1 t- U( \3 d  V+ qTestSamNum=20;              %测试样本数量也是20% y) P' C& D  W4 z2 q
ForcastSamNum=2;            %预测样本数量为21 m6 ]( r0 A: ?$ l: }8 h2 f/ y
HiddenUnitNum=8;            %中间层隐节点数量取8,比工具箱程序多了1个+ M0 M1 A1 g7 D0 |! y; Y
InDim=3;                    %网络输入维度为3
9 a2 D" l/ X( ~( \OutDim=2;                   %网络输出维度为2
1 c. f' }. ]0 @1 b" o定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。1 N: J+ S& r7 ]) ~  C- C4 I1 W9 {
0 W' G8 I' V) a) p2 J, i3 J; @

( y, V5 m$ q" P- x* a! C%原始数据
' M. W8 Q: c) Y! r%人数(单位:万人)! {! X+ Q; k  \: z# C  Y1 |
sqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...
" h: m# R; I4 |! {       41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];
6 {4 C$ a' e# Y6 [/ e7 z1 L%机动车数(单位:万辆)3 A: w  u, I2 e$ ?6 h
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
4 [3 H+ z8 O' P: O2 t9 k1 K0 X        2.7 2.85 2.95 3.1];
+ L% Q5 m, C5 {6 d' k& g  `%公路面积(单位:万平方公里)
/ {0 o' p, r3 V3 K8 qsqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ... ! U& H/ ^; {7 H- b
         0.56 0.59 0.59 0.67 0.69 0.79];" G( K2 L2 n0 P$ `- y# k% Q
%公路客运量(单位:万人)
, r/ F: V$ S/ ?' Mglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
- |- k+ m2 s! U' v# _        22598 25107 33442 36836 40548 42927 43462];
6 U( O& ^; P! Z  z: M) v) I; z8 u%公路货运量(单位:万吨)8 }2 a7 ~/ x# E, c0 w5 p# P- w% o
glhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...
* n+ f! |6 D8 y$ t" Y3 {  y& N        13320 16762 18673 20724 20803 21804];3 @0 b; Y- o, N# F# ?; O
p=[sqrs;sqjdcs;sqglmj];  %输入数据矩阵
# U$ y! R' _; J) X# L5 L! \t=[glkyl;glhyl];           %目标数据矩阵
* X2 O( r9 U1 z9 d8 V[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化
/ ~; e4 Q& h# b# U3 q给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。7 V5 i9 \9 o3 d- t9 S0 b7 |+ b

  J- z! X; [6 b3 ]/ U, s: Y, y1 }/ y# S* E0 l1 ?" m
rand('state',sum(100*clock))   %依据系统时钟种子产生随机数         
  V; E4 @7 \4 ~8 b: j0 WNoiseVar=0.01;                    %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)
. a! R) I6 H8 L) |: f3 A* x! wNoise=NoiseVar*randn(2,SamNum);   %生成噪声
7 q5 k* I5 ^+ i. B6 b6 e4 ?SamOut=tn + Noise;                   %将噪声添加到输出样本上
9 o2 M! r, E+ u, o设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。
) F5 H* E. \: M6 b* T
% s2 f4 h6 H" x- N; h" M7 r$ H' T9 y6 c' O, G: |/ I
TestSamIn=SamIn;                           %这里取输入样本与测试样本相同因为样本容量偏少
3 K2 v: r+ h  E+ CTestSamOut=SamOut;                         %也取输出样本与测试样本相同
) x2 B4 N* `/ B将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
7 `5 p) p: U5 Y) e4 \1 |; a0 _8 O) k' o# z5 B; j3 N" ~

8 d- b+ o; t# x" [. D2 z: M8 kMaxEpochs=50000;                              %最多训练次数为50000
+ o" U! Q3 A4 V4 g6 Ulr=0.035;                                       %学习速率为0.035  K& \2 R6 {. ^$ W2 N1 P! _
E0=0.65*10^(-3);                              %目标误差为0.65*10^(-3)6 ~" x, P" J# o- V) r
W1=0.5*rand(HiddenUnitNum,InDim)-0.1;   %初始化输入层与隐含层之间的权值; F3 e. U# d  w4 k1 }9 _
B1=0.5*rand(HiddenUnitNum,1)-0.1;       %初始化输入层与隐含层之间的阈值2 z+ H6 T6 e) U. S4 l5 r
W2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值              
( v+ o! j# H% G+ V8 }% F- VB2=0.5*rand(OutDim,1)-0.1;                %初始化输出层与隐含层之间的阈值
7 J6 ?  i9 a% F7 X定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。$ W6 _! y( p* \  g  q! `+ T

2 W) f; G6 j. v: ]; a- h: N3 P: r* Y/ |, ?; X& n% Y% q
ErrHistory=zeros(MaxEpochs,1);                              %给中间变量预先占据内存1 y# p! F; B7 G+ i& v) S1 p4 V: \
for i=1:MaxEpochs
6 E9 U8 {% f* M% _
1 a' b& I* A6 X' [1 t8 z    HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出9 A. m; F- f" X
    NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum);    % 输出层网络输出8 ^3 E% D8 _3 i$ z
    Error=SamOut-NetworkOut;                       % 实际输出与网络输出之差
2 u* _! m4 p; Z4 [# z    SSE=sumsqr(Error);                               %能量函数(误差平方和): Q8 r' V, g/ K. R/ _: I+ K
    ErrHistory(i)=SSE;
, J5 @8 j$ p' x2 g
( ~1 g' s* }; v5 R, k# n  {9 T    if SSE<E0,break, end      %如果达到误差要求则跳出学习循环5 U% i0 A/ G! ~* M( g/ z3 w% B$ |
3 N5 W! Y5 S7 f9 h
    % 以下六行是BP网络最核心的程序) |) o0 a9 V4 h3 \# f/ m9 N
    % 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量
- v: Z% M+ ~& T7 w    Delta2=Error;
' a3 p% e7 D9 v! R9 x    Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);    5 u: X4 `5 I5 t$ t' {( W
6 c% \' h+ }! d7 m; Y/ I/ y( ~
    dW2=Delta2*HiddenOut';- H; q! N* S) g! f* \$ Y0 h+ L
    dB2=Delta2*ones(SamNum,1);
# g4 |& m0 t- j5 g0 U6 B3 w6 W. I, V" R! U# l# z8 o
    dW1=Delta1*SamIn';
& \/ t$ Q) W: s! {. W. f* m    dB1=Delta1*ones(SamNum,1);0 p2 ~% B' ^7 N+ z
    %对输出层与隐含层之间的权值和阈值进行修正8 v' X; Y0 b$ E
    W2=W2+lr*dW2;
  [% t: K2 L; X2 P% t* g  c; [    B2=B2+lr*dB2;4 m" j& f0 o. h. F
    %对输入层与隐含层之间的权值和阈值进行修正
7 Y  V2 O# S  M+ h1 l# C2 \) i    W1=W1+lr*dW1;  ?2 t- f1 q4 a# r+ h
    B1=B1+lr*dB1;6 u" N- B6 v- A6 Y8 [, T; C
end: E* X& d. E' k/ p+ o* C: R8 d
使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。
2 u. S  N( ?3 |0 T
2 T/ M! D/ Y" k
" ?; x+ L5 Q3 X$ U2 r/ U: o/ MHiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果3 K# x! X) Q8 \8 X
NetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum);    % 输出层输出最终结果
9 p6 }# ^- h8 d0 e+ ^0 Ea=postmnmx(NetworkOut,mint,maxt);               % 还原网络输出层的结果
7 J. f1 J5 s8 b' ]: a0 k9 k9 B+ [x=1990:2009;                                        % 时间轴刻度
( `* R. [7 m4 O! t6 n6 Qnewk=a(1,;                                        % 网络输出客运量
. g3 _* G' `7 g! f; Z4 P+ Rnewh=a(2,;                                        % 网络输出货运量
$ U1 |! ^8 f) I; Lfigure ;$ K6 _" K" ]4 z, {5 F2 T- E' ^+ y
subplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+')    %绘值公路客运量对比图;
' I9 t5 l2 S: X% x" Jlegend('网络输出客运量','实际客运量');
6 F: L9 O4 @# \9 A9 j7 Vxlabel('年份');ylabel('客运量/万人');
1 o7 B: _" w6 J/ ?. P5 y; L  A  vsubplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+')     %绘制公路货运量对比图;
' i- w5 q3 q& Y4 y9 ?4 _legend('网络输出货运量','实际货运量');
$ k9 t2 r: h' B# oxlabel('年份');ylabel('货运量/万吨');3 k& ^- j" b+ b- J* q" X
使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示5 N- Y8 Q) {: a1 q5 J9 k

5 o3 Z6 J- ^# Fpnew=[73.39 75.55
. P) ^: P+ V7 u- R      3.9635 4.0975' L; ^. S1 K8 F7 N
      0.9880 1.0268];                     %2010年和2011年的相关数据;
4 N4 I/ U3 ~: t* A9 Npnewn=tramnmx(pnew,minp,maxp);         %利用原始输入数据的归一化参数对新数据进行归一化;! c9 C1 h5 E  u4 R
HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果2 X0 {) O. l# I% B/ G
anewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum);           % 输出层输出预测结果3 g# L5 H7 Y/ |6 g" w. L
%把网络预测得到的数据还原为原始的数量级;$ M- G! B( |+ Q9 Q" I7 r
anew=postmnmx(anewn,mint,maxt);
$ \9 Q8 N& \& `! N5 [3 x( X" L5 s# c9 R- Z4 R! }$ j$ R
给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。4 e7 n/ P5 t+ ]2 |& y5 w9 y. O, l! U
该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。
) O$ }5 X% l2 s5 l8 u; z
* e2 {) @- j8 `6 |, S8 f" R) |对于代码将以附件形式给出4 y& y# x+ [0 K. W( Y5 s( R
) k  J1 X& m- \5 V" h$ `. i& Y
3 A; N; B5 M7 K' I9 X5 f

( _! O: `- [7 m& r8 w, P: U1 u

bp_theroy.rar

2.23 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 3 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-11 15:21 , Processed in 3.866101 second(s), 55 queries .

回顶部