QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2012|回复: 0
打印 上一主题 下一主题

BP神经网络进行数据预测(matlab版)

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-8-19 15:20 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。
通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。

. {# \' a) H5 y/ S以下是bp神经网络的简单介绍:1 l+ z5 c" D* V4 Q! w* ]$ C5 G2 s
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。
BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。
BP神经网络的学习分为两个过程:前向传播和反向传播。
前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。
反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。
在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。
BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。

/ Z9 `$ n# p: f% s1 |( i& q) `
以下是对给出的代码的详细解释:0 s0 f% M, x( K7 w4 U' R
clc                          % 清屏2 X' L) \3 ^6 P/ r" O
clear all;                  %清除内存以便加快运算速度
3 }; ~3 s+ B. @" R$ C! uclose all;                  %关闭当前所有figure图像
! ~- Z& B8 H0 s( ]这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。
. G" r+ K& B3 s5 M+ Z/ K  }8 v
/ l0 u# R$ n7 Z% {% e5 k# z5 u
, f4 L( t! p8 _8 ~3 u, ZSamNum=20;                  %输入样本数量为20
; H) k( A, `2 |6 x2 S4 y! @" MTestSamNum=20;              %测试样本数量也是20* G/ N6 v+ E7 p$ D8 [( {7 b
ForcastSamNum=2;            %预测样本数量为2: Z' K! \# C" F6 }4 i! G1 ?/ C
HiddenUnitNum=8;            %中间层隐节点数量取8,比工具箱程序多了1个" p/ ?+ q5 {7 K" S6 G* j# z, c) w7 ^
InDim=3;                    %网络输入维度为3' L, p3 k( n6 z2 C! a  _/ Z3 w7 [
OutDim=2;                   %网络输出维度为2
: R, Y4 ?% T- P7 o" h定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。4 E0 s% W# d! I- N

' ?8 R7 y2 ?+ T  u3 y. \) `5 f+ g+ i3 E& x2 b$ ?1 I  q0 t# F7 G7 ?
%原始数据
! e% L# M  {$ ~. I%人数(单位:万人)+ o- q4 I% ?$ I
sqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...6 p2 C- S4 D6 {# ]+ f
       41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];
  e) e4 E- ~6 f, \3 t%机动车数(单位:万辆)5 G* z; G0 [& s- ]- l
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
& |- J7 b0 O# a! A& n7 k. O- h) m        2.7 2.85 2.95 3.1];
/ r: W3 G$ T* u2 s, A%公路面积(单位:万平方公里)1 M1 t# b# y% Z& b; u
sqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ...
8 V) q5 `, K5 c- x. M" a         0.56 0.59 0.59 0.67 0.69 0.79];
* J) o* A( G  ]+ D$ T9 `%公路客运量(单位:万人)
& E# \, ^4 E* B9 ]6 e' Sglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
3 U8 v3 \# B$ ~' f" s" d' N1 D  l        22598 25107 33442 36836 40548 42927 43462];
- u4 ~. V9 _0 s+ f, h%公路货运量(单位:万吨)* |. V: K8 `1 R) ]* s
glhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...& p1 c7 D# t9 ~# p- ^
        13320 16762 18673 20724 20803 21804];
0 N: z; Z' i( jp=[sqrs;sqjdcs;sqglmj];  %输入数据矩阵
; b2 O  s$ s: C! F8 m- ~1 Ft=[glkyl;glhyl];           %目标数据矩阵+ D2 }3 P3 S, \' x# t
[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化8 `' C  q+ d' B$ N7 y% M# q
给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。
+ B' F8 A! C( o" q3 u! b" e1 ^& _
6 K) {4 `. N4 d- [3 x4 d/ W) E1 W+ y5 f# C, Q; O
rand('state',sum(100*clock))   %依据系统时钟种子产生随机数         
% r7 c& O$ G6 p' X/ rNoiseVar=0.01;                    %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)
0 u3 s4 @  [3 _. z# ?Noise=NoiseVar*randn(2,SamNum);   %生成噪声
5 v4 d5 B# T" B9 b% k$ YSamOut=tn + Noise;                   %将噪声添加到输出样本上' v3 \/ E. ]0 O/ ]
设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。
: ^% C# [0 p( U7 }/ {5 x# B' s' g, M

5 _  u# P- t9 h" gTestSamIn=SamIn;                           %这里取输入样本与测试样本相同因为样本容量偏少' D7 X  M6 o+ S, W% C+ s0 q/ w
TestSamOut=SamOut;                         %也取输出样本与测试样本相同
  W! m9 P9 P2 P/ O" z2 l. b将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
, W. w; c0 u2 ^8 e0 A
9 D- g( u  h6 J7 q
8 o1 F( V2 w" P+ i( nMaxEpochs=50000;                              %最多训练次数为50000+ L  Z2 t* D% F! l0 V
lr=0.035;                                       %学习速率为0.035% a4 \) Z" E  i) d
E0=0.65*10^(-3);                              %目标误差为0.65*10^(-3)% g. P) S; S0 h5 y
W1=0.5*rand(HiddenUnitNum,InDim)-0.1;   %初始化输入层与隐含层之间的权值
% z' p3 p7 E4 pB1=0.5*rand(HiddenUnitNum,1)-0.1;       %初始化输入层与隐含层之间的阈值
5 |3 D5 {: e0 l4 S/ ?6 ]W2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值              ( ]$ E) K. O, N+ L; ^
B2=0.5*rand(OutDim,1)-0.1;                %初始化输出层与隐含层之间的阈值
/ q) G' \% p* l9 B% \定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。
$ o; x3 _5 e: o( @9 V. p! w/ P; _; L) V9 Q* u# P' s

) O9 W% n% I; p0 Q& MErrHistory=zeros(MaxEpochs,1);                              %给中间变量预先占据内存6 V8 k8 b" F/ {# D% H: G
for i=1:MaxEpochs
, P5 ^" r" K- E/ Y
: ?% n3 Q! V8 |! M! R    HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出
0 v* I) J; d! H* W. J( h    NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum);    % 输出层网络输出0 \/ `0 s( O# Y  m
    Error=SamOut-NetworkOut;                       % 实际输出与网络输出之差
: T7 }9 n+ @  @/ {- |) u    SSE=sumsqr(Error);                               %能量函数(误差平方和)
! _$ ^  ]( B5 K1 H% y5 }% v# t    ErrHistory(i)=SSE;- T$ U( E/ x  e( K7 P

/ F* W! h8 w" x8 E6 K3 Z; h4 E    if SSE<E0,break, end      %如果达到误差要求则跳出学习循环
; I5 v$ ?, }: N7 l
5 Y% O2 P7 Y! ^% L    % 以下六行是BP网络最核心的程序
/ @% a! j. }' d' }) V    % 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量5 _! o. b: v3 o. r
    Delta2=Error;
, l# m$ I4 M9 ^+ G    Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);    ( u" z/ R) }" g' W9 y% w, N: f$ j

. F; q8 M3 O! [" ~1 \4 H& J    dW2=Delta2*HiddenOut';2 t: A0 w/ [  g/ f
    dB2=Delta2*ones(SamNum,1);
2 T2 i7 p& t& g4 l, P1 m3 j
7 s' E- r: `2 }+ v    dW1=Delta1*SamIn';
6 F" E& o9 W' d# p5 E$ c    dB1=Delta1*ones(SamNum,1);
0 n, U7 S6 q( S7 w$ v5 H    %对输出层与隐含层之间的权值和阈值进行修正
9 N5 s* D( f/ }# i6 {    W2=W2+lr*dW2;
, C, {& E; o8 v  b& ?    B2=B2+lr*dB2;' l- I3 O9 c  X: o+ J9 Y+ F% d; t
    %对输入层与隐含层之间的权值和阈值进行修正' z& `5 j7 |! [' t3 l  }2 Y
    W1=W1+lr*dW1;
* V2 j5 m( H: X, J- a8 |* Y    B1=B1+lr*dB1;4 H1 N9 F/ y- j( D7 g1 `8 v, U+ Y; i
end0 q6 j7 D1 s3 r4 E6 X
使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。6 u: U$ |5 A6 I4 ^

$ |; a/ {! _: v- i% r& v% l5 G: H. G" j6 s, s4 Q! u
HiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果
# K; D$ G4 ?: Z  u5 LNetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum);    % 输出层输出最终结果
/ }- Q2 b% R3 j* o8 z5 ea=postmnmx(NetworkOut,mint,maxt);               % 还原网络输出层的结果. N" R4 r4 P3 l) v6 M# b
x=1990:2009;                                        % 时间轴刻度
$ Q% i, r/ h) L3 Anewk=a(1,;                                        % 网络输出客运量
5 x  _9 D' g/ F* lnewh=a(2,;                                        % 网络输出货运量
" z/ J* I7 z/ T0 O+ |% `$ M! U6 ffigure ;
3 N6 r8 W$ k7 k# \( s- _  `8 lsubplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+')    %绘值公路客运量对比图;
! {" i$ ]7 e8 e$ A9 r, Rlegend('网络输出客运量','实际客运量');
% s1 M( h/ @5 x% Z5 ]xlabel('年份');ylabel('客运量/万人');+ P" U( n, i/ b
subplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+')     %绘制公路货运量对比图;
/ G/ f/ _  U7 K7 N/ }. s, P! Y$ mlegend('网络输出货运量','实际货运量');
4 _4 n+ r: D. W' Y+ _3 zxlabel('年份');ylabel('货运量/万吨');
( Q, S) ~" t! e! X7 [* O" T* U使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示9 U1 S/ \; H6 C7 Z0 ?! x

) ^1 y: J# {7 R1 Ppnew=[73.39 75.55
; M* b5 X$ m: s# s* O; k      3.9635 4.0975
2 w, u2 E8 U- A) R6 L1 O8 Z+ D9 G      0.9880 1.0268];                     %2010年和2011年的相关数据;
4 ~- F- {" t4 ~0 ?8 g  E# s  vpnewn=tramnmx(pnew,minp,maxp);         %利用原始输入数据的归一化参数对新数据进行归一化;$ p, D9 M+ x% s( D& V/ n2 K: h+ B
HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果
/ `) ~4 ~# o  p- p0 U7 d7 N* U( Danewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum);           % 输出层输出预测结果# y: U- Y+ l/ f0 ^! K" h
%把网络预测得到的数据还原为原始的数量级;
; F8 J' R7 w- V$ Y' e' |0 @5 Zanew=postmnmx(anewn,mint,maxt);" O2 l# V5 k* H9 m. U5 L3 Y
2 P$ G- T$ Z( {4 D& O
给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。1 b+ a  r+ I7 C+ ]
该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。
' I. A5 h* T& Q% N- d& V3 ^# a3 j$ Z0 A2 U# Y
对于代码将以附件形式给出
7 q* h, O4 f+ y* m
- N( @( D# S4 r0 F6 b4 z2 Y+ E$ R7 W

9 @7 C# r  q& b7 N

bp_theroy.rar

2.23 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 3 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-10 15:06 , Processed in 0.330672 second(s), 55 queries .

回顶部