|
在本文中使用BP神经网络进行数据预测的功能。具体来说,它使用了BP神经网络模型进行公路客运量和公路货运量的预测。这个问题涉及了了解和预测公路客运量和公路货运量的变化趋势。公路客运量指的是公路上人数的运输量,而公路货运量表示公路上货物的运输量。 通过分析与这两个指标相关的数据,如人口数量、机动车数量和公路面积,代码通过BP神经网络模型构建了一个预测模型。预测模型的目标是根据输入的数据(人口数量、机动车数量和公路面积)来预测公路客运量和公路货运量的值。
7 j. K5 m F* ]8 a9 y以下是bp神经网络的简单介绍:" p6 N! c+ u0 A* S& }5 X
BP神经网络,即反向传播神经网络(Backpropagation Neural Network),是一种常用的人工神经网络模型。它是一种具有前馈和反向传播机制的多层前馈神经网络,是一种有监督的学习算法,适用于解决分类和回归问题。 BP神经网络由输入层、隐藏层和输出层组成,每个层都由多个神经元(节点)组成。每个神经元与上一层和下一层的神经元相连接,并且每条连接都有一个权重。 BP神经网络的学习分为两个过程:前向传播和反向传播。 前向传播:从输入层开始,将输入样本输入网络,经过每一层的神经元的计算,最终得到输出层的输出结果。在前向传播过程中,每个神经元根据其输入信号和权重进行加权求和,并通过激活函数(如sigmoid函数)进行非线性变换,生成该神经元的输出。 反向传播:将网络的输出结果与期望输出进行比较,计算输出误差。然后将误差从输出层向输入层反向传播,根据误差调整网络中的权重。反向传播使用梯度下降算法来最小化误差,通过不断迭代调整权重,使网络的输出逼近期望输出。 在反向传播过程中,首先计算输出层的误差,然后逐层向前计算隐藏层的误差,直到达到输入层。根据误差计算的结果,更新每个连接权重的值,以减小误差。 BP神经网络的训练过程是通过多次迭代更新权重,不断调整网络的连接权重和阈值,使得网络的输出逼近期望输出。网络的训练通常以某个终止准则为条件,如达到预定的训练次数或达到期望的误差阈值。
$ I1 s; \0 q) i+ T* G& E1 V& w& h) l% y3 w
以下是对给出的代码的详细解释: X" }0 ?, `/ O' g
clc % 清屏* B( ^+ `2 n; @: H
clear all; %清除内存以便加快运算速度% ^5 ]% i& f8 P% A, k: O( A9 h( s
close all; %关闭当前所有figure图像$ w1 R+ W9 \, V3 P7 b6 K
这些代码行清空了 MATLAB 的命令窗口、清除了工作区中的所有变量和关闭了所有图形窗口。9 F. {2 A- s/ ]3 Y4 E* L+ Y
" Z* x$ Z7 P8 m" P0 |
' H# v# Z- I9 O: DSamNum=20; %输入样本数量为20( g4 I# E1 \( q- H. ?8 x
TestSamNum=20; %测试样本数量也是20
6 H$ B! ?/ [- z4 ZForcastSamNum=2; %预测样本数量为22 x7 G0 G3 i4 ]2 ?/ v
HiddenUnitNum=8; %中间层隐节点数量取8,比工具箱程序多了1个
% ?: i! a7 b; e; FInDim=3; %网络输入维度为3
2 [, w" G4 e) T# M- Y+ UOutDim=2; %网络输出维度为2
3 P( O0 Z! Y4 r1 Y定义了样本数量、测试样本数量、预测样本数量以及神经网络的隐层节点数量、输入维度和输出维度。
: ^! G' K$ u1 q
: Q# l* U) G* \( s, l5 f. M3 U7 F o. i ]4 _
%原始数据 5 g+ c# f* `. d6 D( L* M6 m, x- q
%人数(单位:万人)
. R) W1 n) |' Rsqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ...
( ~% ^+ |$ d4 e" H9 t) c2 n9 o 41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];% ~: _2 O3 W3 k- ^0 e/ b& C3 Y
%机动车数(单位:万辆)9 X& o5 I( k% Q. ~& e
sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6...
5 a% ]; w0 X7 [ 2.7 2.85 2.95 3.1];
* d# ^4 ~+ H0 D% b; \/ q+ s%公路面积(单位:万平方公里)
! X' N, u& B5 E2 usqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ... + |7 m" B$ N; n& D) G
0.56 0.59 0.59 0.67 0.69 0.79];0 g' O: [) K" ^1 e- O' e; ~, {
%公路客运量(单位:万人)
' d0 n; R" F: M/ o9 m: y) kglkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ...
& t+ B" g3 m3 P 22598 25107 33442 36836 40548 42927 43462];
2 A7 d" R) A) _- Q%公路货运量(单位:万吨)" g8 v5 h/ N6 i3 Y
glhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ...
- a/ B. K2 B8 x C7 O2 x: c1 v4 { 13320 16762 18673 20724 20803 21804];9 z3 O) G; ?, |$ s
p=[sqrs;sqjdcs;sqglmj]; %输入数据矩阵( ^2 y! o3 s1 [; v& J$ K
t=[glkyl;glhyl]; %目标数据矩阵1 \4 o! @9 i! K3 ?5 i- F
[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化, K$ K! [1 W1 G
给出了一些原始数据,包括人数、机动车数、公路面积、公路客运量和公路货运量。然后将输入数据矩阵p和目标数据矩阵t进行归一化处理,返回归一化后的样本输入SamIn,归一化参数minp和maxp,以及归一化后的目标输出tn和归一化参数mint和maxt。0 Z% _7 j Y- }3 d/ O
- W7 V6 }) s8 I5 S" q( k- J: B
0 o4 B1 C+ M, Z; Z# ?rand('state',sum(100*clock)) %依据系统时钟种子产生随机数
2 Z4 k9 \7 E' f5 xNoiseVar=0.01; %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)% a* q) o. E4 e. c! q& H
Noise=NoiseVar*randn(2,SamNum); %生成噪声6 E5 l1 v8 T- h/ R. |
SamOut=tn + Noise; %将噪声添加到输出样本上. Z' [+ Z) o0 u: t4 k+ R
设置随机数种子并生成一些噪声数据,将这些噪声添加到归一化后的目标数据tn上,得到带噪声的样本输出SamOut。, {8 @/ d+ ]8 B) F- k7 [7 R3 @6 v
5 S7 m1 y4 b7 n) L7 e! P
5 o3 ^5 B1 k9 m6 ? mTestSamIn=SamIn; %这里取输入样本与测试样本相同因为样本容量偏少2 D2 v/ V% V; I: k, I4 i; n
TestSamOut=SamOut; %也取输出样本与测试样本相同; H( q# H8 V- | K
将用于测试的样本输入TestSamIn设置为与训练样本输入SamIn相同,将用于测试的样本输出TestSamOut设置为与训练样本输出SamOut相同。
, K, W+ g6 e& S6 n8 E8 w
! e6 h6 [$ Z, E3 x+ V6 [6 ^" o
' P. Q! A: X" Z1 u+ f+ ~2 |* cMaxEpochs=50000; %最多训练次数为50000/ h0 r; F+ V5 g/ G
lr=0.035; %学习速率为0.035
9 y% m4 d4 E( V7 fE0=0.65*10^(-3); %目标误差为0.65*10^(-3)
K8 \6 L' C2 }W1=0.5*rand(HiddenUnitNum,InDim)-0.1; %初始化输入层与隐含层之间的权值
; z! G3 p% o* k2 H2 ?B1=0.5*rand(HiddenUnitNum,1)-0.1; %初始化输入层与隐含层之间的阈值
* ~, d' n1 L0 D" Q. TW2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值 . I2 g$ A( K7 O, @
B2=0.5*rand(OutDim,1)-0.1; %初始化输出层与隐含层之间的阈值
% U2 v% J2 }* b. N定义了最大训练次数MaxEpochs、学习速率lr和目标误差E0。然后,随机地初始化输入层与隐含层之间的权值W1和阈值B1,以及输出层与隐含层之间的权值W2和阈值B2。
/ F6 K- y0 c2 F5 m3 I3 i/ h; m9 m' ^, P4 E2 s3 G# s
5 L1 A; F) Z' p, N6 D& BErrHistory=zeros(MaxEpochs,1); %给中间变量预先占据内存
( }/ c; z5 U2 C3 y9 _for i=1:MaxEpochs
/ w) C! z! [0 a3 k
" w& s4 H: s Z$ M HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出
: T- l7 l$ ]0 S) I9 g* q* Y* i NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum); % 输出层网络输出# w( @; l! A! z; x7 o
Error=SamOut-NetworkOut; % 实际输出与网络输出之差
3 Y7 z$ ~: I' W$ d; j SSE=sumsqr(Error); %能量函数(误差平方和)5 J/ ]8 d! x% _: I# u
ErrHistory(i)=SSE;' m$ j: j E# c8 y; E! P8 ^# Z
; z6 S5 J! ^) a8 X( N if SSE<E0,break, end %如果达到误差要求则跳出学习循环
3 w4 M, q6 {; ^; i' r8 ]) v
5 x; i% o9 V( Q % 以下六行是BP网络最核心的程序0 A( O8 U) S% e K7 U1 j5 P
% 他们是权值(阈值)依据能量函数负梯度下降原理所作的每一步动态调整量' {" }* S5 z& Z! b Q5 T
Delta2=Error;) ?! q/ j1 D; F: X
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut); % A5 [5 y' @) Y* V, L% F) {
+ t9 u$ s2 @ W/ D4 o$ D/ K
dW2=Delta2*HiddenOut';
6 C8 C$ n3 H( s" s# o) Y% K$ k6 y dB2=Delta2*ones(SamNum,1);& d* b( o8 Y/ T
) P: f, _3 E) U
dW1=Delta1*SamIn';2 V6 r% t9 i( H' y- }3 A
dB1=Delta1*ones(SamNum,1);- X, ~4 X& N3 l
%对输出层与隐含层之间的权值和阈值进行修正
- q3 } k6 {" A7 j: H6 j. a2 y* X# @ W2=W2+lr*dW2;% c. j2 g0 t2 }9 ~1 q
B2=B2+lr*dB2;
0 m% W% x6 e" J# v* a %对输入层与隐含层之间的权值和阈值进行修正
2 e8 Y$ u9 S- i& X5 c# A* v2 C W1=W1+lr*dW1;* S' k$ D- x" w& Q' @% o
B1=B1+lr*dB1;3 Q: d1 s0 i9 u/ E* j, a
end
0 B0 w3 ]6 k: Y- e0 B/ ~, P使用BP算法进行神经网络的训练。通过迭代调整权值和阈值来减小实际输出与期望输出之间的误差。迭代过程中,计算隐含层的输出HiddenOut和输出层的输出NetworkOut,计算误差Error,计算能量函数(误差平方和)SSE,并将其保存在ErrHistory中。如果误差小于目标误差E0,则跳出学习循环。核心的BP算法部分涉及到误差的反向传播和权值、阈值的调整。
. G- Q0 O4 Z3 E! y+ w8 {" R; \* Q6 a/ n9 _; j5 A: A$ F% T
' y. {4 C0 D3 g( s/ ]' l
HiddenOut=logsig(W1*SamIn+repmat(B1,1,TestSamNum)); % 隐含层输出最终结果
) t0 P& o3 P7 \0 x2 Z" p9 I4 sNetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum); % 输出层输出最终结果 E' w8 q; G9 H3 m
a=postmnmx(NetworkOut,mint,maxt); % 还原网络输出层的结果) ?( c7 f3 _3 J ^' z# N6 O7 @3 ?
x=1990:2009; % 时间轴刻度! ?$ C9 d" a, R
newk=a(1, ; % 网络输出客运量
7 h5 W- X7 W. S5 _9 Q0 V4 y! Rnewh=a(2, ; % 网络输出货运量9 f# @$ Z" q! U' {* {( y, V: p% p
figure ;0 P8 S! u/ @# e& o# {4 V/ S4 S
subplot(2,1,1);plot(x,newk,'r-o',x,glkyl,'b--+') %绘值公路客运量对比图;: Q' @9 G- Q* M# D
legend('网络输出客运量','实际客运量');
& Y; a; M- o" `xlabel('年份');ylabel('客运量/万人');5 q; l& x( }* z0 Q" c M& R
subplot(2,1,2);plot(x,newh,'r-o',x,glhyl,'b--+') %绘制公路货运量对比图;
% H3 C! B6 D& R" ^5 nlegend('网络输出货运量','实际货运量');
K1 K' a; v1 g; B: rxlabel('年份');ylabel('货运量/万吨');8 V7 H# ]; @, q* p, W+ t
使用训练好的神经网络对测试样本进行预测并还原归一化结果。将还原后的网络输出结果与实际数据绘制成图形进行对比展示
4 k8 x: [* b8 f. y2 q$ h* Z' z; Z. i" ]# |7 l
pnew=[73.39 75.55: u8 h7 d5 y( H( `. D, f
3.9635 4.0975
) Y5 v$ }, }$ t, T* }9 { 0.9880 1.0268]; %2010年和2011年的相关数据;
6 E. L0 h! n( v* }# l/ |; w. w# r9 x# ^pnewn=tramnmx(pnew,minp,maxp); %利用原始输入数据的归一化参数对新数据进行归一化;/ H. k. I2 H8 q, q
HiddenOut=logsig(W1*pnewn+repmat(B1,1,ForcastSamNum)); % 隐含层输出预测结果- N7 J: \6 q5 u8 B
anewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum); % 输出层输出预测结果
+ o6 e) j1 { T%把网络预测得到的数据还原为原始的数量级;7 h6 G u' P8 I( h0 y
anew=postmnmx(anewn,mint,maxt);
, o$ ~# s# Q) O ~6 D' h' l
0 ]: m0 l% D2 i$ ]' X给出了新的输入数据pnew,对其进行归一化处理得到归一化后的输入数据pnewn。然后,使用训练好的神经网络对归一化后的输入数据进行预测,得到归一化后的预测结果。最后,利用逆归一化操作将预测结果恢复为原始的数量级。* ~* K! |1 r9 U9 i C
该段代码主要包括数据预处理、神经网络的训练和预测,以及结果的可视化展示。通过训练得到的神经网络,可以对输入数据进行预测并输出相应的结果。
/ q( h$ j4 g6 x) f1 x" R
% v) R3 F( Z; Q3 \) |对于代码将以附件形式给出
! v2 o% R7 c; k# u% N$ i
% l1 ^6 Q5 D- u8 e7 q! C$ U" s& h, ]2 f& L F9 ^6 U# M
$ I" M6 J- ?/ N S5 G t# a) K
|