- 在线时间
- 3 小时
- 最后登录
- 2013-5-18
- 注册时间
- 2008-12-16
- 听众数
- 3
- 收听数
- 0
- 能力
- 0 分
- 体力
- 40 点
- 威望
- 0 点
- 阅读权限
- 20
- 积分
- 16
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 16
- 主题
- 3
- 精华
- 0
- 分享
- 0
- 好友
- 2
升级   11.58% TA的每日心情 | 开心 2013-5-18 14:52 |
---|
签到天数: 1 天 [LV.1]初来乍到
- 自我介绍
- 开朗 活泼
 |
本帖最后由 hanyunxiang 于 2010-5-25 17:03 编辑 ( J0 w5 t! A$ N/ K
# c4 w* @9 l8 l/ ?; |
关于BP神经网络预测
. O) H5 ?; r9 ?. Y- X" e5 @8 n7 `1 } a/ g' |5 n
注:里面的笑脸代表冒号(不知道会出现笑脸)+ G! l' m- p9 D- U( d
" R: [6 \3 ]$ _7 f: V5 G+ `) {% K( M) k1 d( O
关于BP时间序列预测) R' t% w+ l* p
程序中x是已知的运输量数值(2000年-2009年),以4个数据为一组,前三个数据作为输入,第四个作为输出,共分7组,前六组训练,隐层节点为7,最后一组检验:1 X: ~1 N, _- m- W1 D4 t3 @
x=[13369.2 14873.7 17137.3 17432.5 24193.5 28435.1....$ h& A& `& [9 n8 u
33197.3 38758.6 40576.2 48606.3];6 c( `) B- s# E$ M- z
X(1, =(x(1, -min(x(1, ))/(max(x(1, )-min(x(1, ));(归一化)5 R- b7 L' B/ Z( s ?
for i=1:7/ i+ L( I, j. h3 y6 l8 E
X1(i, =[X(i) X(i+1) X(i+2) X(i+3)];
# Z, x6 ~: v% b' v+ hend. o# \; u& v! ^! T
X2=(X1(:,1:3))';
9 `) e: F' h `- e7 o: YT2=(X1(:,4))';
. K. s+ I/ h' e* \( X1 gX3=X2(:,1:6);; l$ }( u5 }0 _! F% I% }
T3=T2(:,1:6);, g) V4 H$ G' U: |/ B# Q! d9 i
net=newff(minmax(X3),[7 1],{'logsig','tansig'},'trainlm');
4 W+ E" y2 i6 t4 F. dnet.trainParam.epochs=1000;
) [* D- H' H* E3 Rnet.trainParam.goal=0.000001;3 z* i# w& N6 Z! j
LP.lr=0.1;
/ l& t9 ^! \, E Lnet=train(net,X3,T3);. u, |' A% ^3 T0 Z9 a2 ~. U' ^
y1=sim(net,X3);
: l @; f p& I4 m- }( J$ G* n
! e) [6 v% g, B: v2 i9 S- ~& E以下是检验:
: R5 y9 y% d) q7 ?, V/ j; E
" ?4 N* q2 _1 E1 x: @" P+ r& V% Ex_test=X2(:,7); H* J' E. a( M7 K# P6 r
y_test=sim(net,x_test)# @' X8 |/ z; F) T. k
Y_test=y_test*(max(x(1, )-min(x(1, ))+min(x(1, )(反归一化)
; }/ z% a m' m检验效果还不错;
/ ^: }3 r! T* A) B8 q I9 I6 {- t5 [
但运用以下命令在预测2010年运输量时,向量yc1为2007、2008、2009年运输量归一化的数值;% s2 w5 C8 \' f9 w
为什么反归一化输出和2009年数值一样,怎么回事呢???初学者盼解答??, ~, f2 E8 j3 W' T. p+ D& ^5 z
/ `- E; I( Z! ~; Y: D
yc1=[0.7205 0.7721 1.0000]';
3 v& C- S: g2 Mjg1_test=sim(net,yc1(:,1))6 `) f+ z$ L" K
Jg1_test=jg1_test*(max(x(1, )-min(x(1, ))+min(x(1, )(反归一化)
' T6 C: Z% g% Q" s7 l |
zan
|