QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2017|回复: 0
打印 上一主题 下一主题

BP神经网络进行数据预测(matlab版)

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-8-19 15:20 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。
通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。

2 C4 {- e& L& I2 t) ]* T! x以下是bp神经网络的简单介绍:4 V# m3 H2 `; v
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。
BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。
BP神经网络的学习分为两个过程:前向传播和反向传播。
前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。
反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。
在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。
BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。

( g0 }* _2 u7 x/ G4 m, Z* F: O, Y: t
以下是对给出的代码的详细解释:+ V: ~/ T. z# _3 u' L. \
clc                          % 清屏$ q. a( e) w) o/ j5 k# y) A
clear all;                  %清除内存以便加快运算速度
- |- w7 p  t9 }& Fclose all;                  %关闭当前所有figure图像
0 ^% k" A$ {$ }6 V这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。, C, D4 l4 l3 D% p

8 G) S7 J" H/ l2 z
  E2 Q0 M1 {( cSamNum=20;                  %输入样本数量为20$ H  R$ J5 O, M, V6 \7 n7 K( e
TestSamNum=20;              %测试样本数量也是20
# A0 n, H2 v( p6 nForcastSamNum=2;            %预测样本数量为2
/ S4 X3 q- p# Y# MHiddenUnitNum=8;            %中间层隐节点数量取8,比工具箱程序多了1个
2 I4 A5 r+ n% e! Q4 X3 YInDim=3;                    %网络输入维度为3
% N- L7 x, {  _& }) bOutDim=2;                   %网络输出维度为2- \2 J' h' D9 ~" X2 n$ n8 w
定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。
9 s: e8 _$ L, N* ^; B! A. S4 G9 B: \: B- X1 I! F
9 g0 ^1 P& v9 J, ~
%原始数据 / y4 l7 m/ q- p, R- H- h
%人数(单位:万人)
( ]% t  g9 O% @6 I4 D" T# wsqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...% Z' f) X. y9 Z+ T# f6 w
       41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];. Z" `* ]8 R: t/ d
%机动车数(单位:万辆)( T  v  {+ T: ?, i* r/ X; h1 y
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
! V) G4 ]4 L( e# Z- Z        2.7 2.85 2.95 3.1];
: H7 ?; T1 n9 C5 Q* A& ^%公路面积(单位:万平方公里)8 H: N1 M9 u. I& |* A; Q# G2 k: }
sqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ...
+ \0 C/ U3 Y( a" }7 i) e, m) h         0.56 0.59 0.59 0.67 0.69 0.79];. \4 E, q1 S- a3 o
%公路客运量(单位:万人)
9 L5 l4 P  c- y8 eglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
/ n! \. G8 O& N2 Q$ l3 _        22598 25107 33442 36836 40548 42927 43462];/ [0 C) Y4 M5 L9 o9 ?" h) x$ Q
%公路货运量(单位:万吨)
# ]# g  j* ^( bglhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...3 x) y; R. _1 n) q" _) x
        13320 16762 18673 20724 20803 21804];0 w0 L" v$ }' ]6 c% _, E
p=[sqrs;sqjdcs;sqglmj];  %输入数据矩阵
# a. b& G; ~4 Y5 }( j4 G) wt=[glkyl;glhyl];           %目标数据矩阵4 `- y% ]  z; y! T, v* I
[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化$ h# F- C9 a$ R1 a  M8 O' \
给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。4 M% I0 f* z% h
7 z9 r- T! o8 k$ C9 B5 K- ~
4 P* b4 o9 N; {  _7 ], B
rand('state',sum(100*clock))   %依据系统时钟种子产生随机数         
9 f" U4 b! m) S5 u0 {NoiseVar=0.01;                    %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)
5 l% H$ f9 M/ O0 R$ H4 w$ @Noise=NoiseVar*randn(2,SamNum);   %生成噪声( m3 `6 v7 \9 q0 H& V# _
SamOut=tn + Noise;                   %将噪声添加到输出样本上, [5 J+ w+ p  ^9 s& y4 C
设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。* f. z+ ?' c( \: `+ U$ T

1 F) I& Y9 c, q% c! N4 W+ r. `" {
. d# ^. ]$ T) {# n7 J: @TestSamIn=SamIn;                           %这里取输入样本与测试样本相同因为样本容量偏少
+ ?' v  p8 k( m! T) l6 h4 YTestSamOut=SamOut;                         %也取输出样本与测试样本相同
: H" ], l. a1 i0 H8 c2 \. w将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
' S: D2 B# q" ]' K7 K+ |1 K7 ^8 ~) q9 e! w- l0 ]* |# S4 |

6 z2 X- J9 u6 A) ~% t4 Z* xMaxEpochs=50000;                              %最多训练次数为50000( I' c+ E' e! A4 P
lr=0.035;                                       %学习速率为0.035
9 A# N+ g: c5 m3 w: _2 iE0=0.65*10^(-3);                              %目标误差为0.65*10^(-3)( i7 F. |; V) b1 q
W1=0.5*rand(HiddenUnitNum,InDim)-0.1;   %初始化输入层与隐含层之间的权值: d# L. B  H3 P6 H* g4 }, h2 _
B1=0.5*rand(HiddenUnitNum,1)-0.1;       %初始化输入层与隐含层之间的阈值( n3 C2 b- r" D: s5 W
W2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值              6 i: }2 p) X, W: m
B2=0.5*rand(OutDim,1)-0.1;                %初始化输出层与隐含层之间的阈值
. z0 V3 t. R$ i0 \: f3 Z/ D( q定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。; d6 v/ m, h3 {3 T
6 l$ S/ T/ W' f. `
1 L( G# h4 m( |2 D5 Q
ErrHistory=zeros(MaxEpochs,1);                              %给中间变量预先占据内存# H- w- c5 P1 c+ u2 P4 ]6 B
for i=1:MaxEpochs( H" L+ [! p7 A5 R$ R+ v) x
# [6 G) b+ Z+ G, ?% k/ Z: v: L0 H
    HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出
" n& f8 h# x, b0 N' u+ l2 {9 i    NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum);    % 输出层网络输出' f; z8 N) S# d' ?  k* ^
    Error=SamOut-NetworkOut;                       % 实际输出与网络输出之差9 v  X, `* R6 L  ^. ~2 P
    SSE=sumsqr(Error);                               %能量函数(误差平方和)1 l7 u- d# N2 q
    ErrHistory(i)=SSE;+ W+ U6 s: x; F# R9 k- z
& U8 I8 |, @* C4 i
    if SSE<E0,break, end      %如果达到误差要求则跳出学习循环0 s, y2 T. w, R4 `5 ^4 k. X

9 q! k5 [$ `2 I    % 以下六行是BP网络最核心的程序' V- Q/ n  |# o. @4 `2 w
    % 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量
% m' H% q, Q: E& _8 f    Delta2=Error;
6 T. f& k, j2 e) H2 s! I' S$ a    Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);   
! s1 y! s& y0 g3 b7 w0 |/ B5 ^+ _
: E1 I- _" @: D& B0 o$ f    dW2=Delta2*HiddenOut';
( x1 Q/ U6 l8 o0 u- B/ |) U* S    dB2=Delta2*ones(SamNum,1);
/ N" w3 j  F1 k0 i9 Z9 k" v! R7 }" s& _% u9 D( j5 M5 X7 u
    dW1=Delta1*SamIn';
: g' ~' |& }2 u    dB1=Delta1*ones(SamNum,1);3 T3 u% I; t. K8 y
    %对输出层与隐含层之间的权值和阈值进行修正
5 B! F, ^, r+ Z/ q+ q    W2=W2+lr*dW2;& M1 _5 d. {9 f
    B2=B2+lr*dB2;
4 Z( D6 g  J& r$ z+ c) F  }4 d9 F    %对输入层与隐含层之间的权值和阈值进行修正
1 f$ b; t/ W2 Q/ o& U7 t3 m' J% k    W1=W1+lr*dW1;
- b5 ~% H. K) @# {( [$ W3 ?- M    B1=B1+lr*dB1;
) w9 o: W4 R+ k+ G% jend0 Y; Q2 F; d% m2 T- P
使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。
* }. t, x5 ?% r: U8 v( S- q- w% @2 }

6 u7 o6 ^# F7 J6 A5 W! QHiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果
( u4 |6 O& i% ENetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum);    % 输出层输出最终结果
+ ~5 J1 M) ]5 W1 h  ha=postmnmx(NetworkOut,mint,maxt);               % 还原网络输出层的结果
, c: f/ a8 ^# n6 B) p( s/ Tx=1990:2009;                                        % 时间轴刻度) G* a% F( F& J0 s$ f' _+ ^$ ~
newk=a(1,;                                        % 网络输出客运量- x- U' w' }- J0 i! e9 ~1 `
newh=a(2,;                                        % 网络输出货运量
1 ^- m- u4 }' n: p( K: Hfigure ;$ E3 M' H. b& w) u
subplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+')    %绘值公路客运量对比图;
- g! v/ x7 X. u* E! G; xlegend('网络输出客运量','实际客运量');/ l; g$ ~( N$ D0 K0 u
xlabel('年份');ylabel('客运量/万人');* r3 T% z" k( z  g2 h
subplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+')     %绘制公路货运量对比图;
1 O1 q2 l* y0 `1 mlegend('网络输出货运量','实际货运量');  s8 Y  v5 T7 T
xlabel('年份');ylabel('货运量/万吨');
& O+ c6 y* v7 ?5 |. E使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示5 _# |3 R' t, X) O; q$ R

5 N/ ]) j! ]+ k1 P4 V, opnew=[73.39 75.55
- C5 C3 d& _) B2 f; M5 D1 r- L      3.9635 4.0975
& m  e* N! k3 `2 d8 k) e      0.9880 1.0268];                     %2010年和2011年的相关数据;) D5 [# p8 M1 [$ L& m( A0 X
pnewn=tramnmx(pnew,minp,maxp);         %利用原始输入数据的归一化参数对新数据进行归一化;
" g; p8 Y; Z' C3 f  p  ?HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果
- c2 n0 f) M7 Sanewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum);           % 输出层输出预测结果
, n' }5 R( L% S7 d%把网络预测得到的数据还原为原始的数量级;( R6 |4 v: r" F9 m5 T* W* h
anew=postmnmx(anewn,mint,maxt);
$ @3 T3 z& E" m& J+ Y8 D1 w
  `/ {. b+ z: F/ K- D, ~! g给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。
; y! ]5 {& T5 j6 e( z该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。0 ^- u) E: o  ]

* ~; w1 W% M6 U. B5 y2 @/ k对于代码将以附件形式给出
& K4 ]6 C5 `0 |& W% W
: p) A7 L$ t: p( |; c5 a1 O0 P# ~! n

: k( F9 ]4 a2 e9 C6 I

bp_theroy.rar

2.23 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 3 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-12 14:03 , Processed in 0.407920 second(s), 55 queries .

回顶部