数学建模社区-数学中国

标题: 在MATLAB中如何将神经网络和遗传算法联系起来 [打印本页]

作者: trok_2005    时间: 2005-1-22 22:42
标题: 在MATLAB中如何将神经网络和遗传算法联系起来

我因科研需要刚开始接触MATLAB,发现确实如各位大侠所说是个好东西,目前我在处理一组实验数据,希望用神经网络对其进行训练,可以实现仿真,另外我还希望采用遗传算法寻优,如何将神经网络的输出转化成遗传算法需要适应度函数呢?请各位大侠多多指点,先这里谢过了。


作者: retin    时间: 2005-1-23 11:03

不好意思,我所知道的还没有这些!

遗传算法只是略微懂点!


作者: ilikenba    时间: 2005-1-23 12:26

希望你能将如何用神经网络做的仿真说清楚,既然已经仿真成功了,那所说的寻优又是指的对什么寻优呀?神经网络又作了怎样的仿真?问题不清楚,这个很难回答!


作者: trok_2005    时间: 2005-1-23 22:22
以下是引用ilikenba在2005-1-23 12:26:35的发言:. l& g. {3 B. V0 p. A4 T 8 I6 e* X' e/ J+ _# r

希望你能将如何用神经网络做的仿真说清楚,既然已经仿真成功了,那所说的寻优又是指的对什么寻优呀?神经网络又作了怎样的仿真?问题不清楚,这个很难回答!

/ c: ^) l6 l3 n

谢谢您的关注,是这样,比如说我利用正交设计获得18组实验数据,我用BP神经网络建立了网络模型,我还希望能利用这个模型求解最优,即寻找合适的网络输入,以使网络输出值达到最大。但由于神经网络模型的建立是通过神经元间的连接权值和阈值来实现的,很难用简单的函数形式表达,因此我希望采用遗传算法来寻找最优的实验条件。但我不知道怎样将神经网络的输出转化为遗传算法所需要的适应度函数。% e% r( v3 k! a6 K W

我是用NET=NEWFF(MINMAX(P),[20,1],{'TANSIG','PURELIN'},'TRAINLM');进行建立网络,用NET=TRAIN(NET,P,T)对网络进行训练,用ANEW=SIM(NET,P)对网络进行仿真。 4 o9 a% @4 L& e4 \+ Y

不知我的问题说清楚了没有,希望您或其他大侠帮忙看一下,小妹这里谢过了!


作者: ilikenba    时间: 2005-1-23 23:14
按照你的说法,你可以完全利用遗传算法寻优,并不一定要和神经网络结合的,这里只要找到一种合适的编码规则就行。对于遗传算法你完全可以随意地利用一种选择、交叉、变异规则,因为它是按照概率1收敛的,所以这些规则的选择好坏只影响收敛速度,我想你所说的适应度函数就是表示每个种群的概率密度函数吧!你完全可以按照网络输出值的数值大小计算每个种群所占的概率!
作者: trok_2005    时间: 2005-1-24 00:09

谢谢 ilikenba 的回复,我是新手,不太明白,研究了半天,编了一点东西,可运行出了问题,帮忙看看是怎么回事,如何修改,谢谢!

p=[ 40 21 2.5 6. 5 2 g9 e( F7 }( O. y* T! d0 Z( \ 40 25 3. 6.5 10 / \3 Z4 A. U7 N+ ]( n: F 40 30 3.5 7. 20 3 Q! Q4 F/ j, U2 b9 _ 45 21 2.5 6.5 10 4 E, p6 I% v4 O* ~1 e1 f6 d! l 45 25 3. 7. 20 $ c' p/ |( w) n: v 45 30 3.5 6. 5 # s9 e* j% o |* M# ~ 50 21 3. 6. 20 K! T! v' \$ n. t: F% }/ | 50 25 3.5 6.5 5 7 [0 S% I) y1 b4 {7 E& n 50 30 2.5 7. 10 - ~2 D* z6 O+ \; [ G* i 40 21 3.5 7. 10 L) s) P% S0 [# s) c 40 25 2.5 6. 20 7 z v: |1 z5 l, R 40 30 3. 6.5 5 8 O# u2 G! F W5 b 45 21 3. 7. 5 6 m1 z) A# S9 q3 M5 d2 C3 C 45 25 3.5 6. 10 7 g* F. b% E' { 45 30 2.5 6.5 20 8 R; \4 ?( \" R7 \ 50 21 3.5 6.5 20 4 _9 B1 L, T7 F( F( @ 50 25 2.5 7. 5 3 C; z( E% `+ a! p6 p' i 50 30 3. 6. 10];

t=[2.673;3.412;1.315;2.019;1.996;0.885;9.317;4.484;1.768;5.720;2.316;0.678;1.042;1.492;0.765;8.812;1.204;3.130]; o6 M1 f5 _. u1 Z2 i3 _ WT=t'; 1 m! S8 R7 x5 f. rP=p';- D, {4 [- X: N' N net=newff(minmax(P),[12,1],{'tansig','purelin'},'trainlm'); " y" f0 a* P2 Y%训练网络

net.trainParam.show=10; o, x. a& ]) Z, K %net.trainParam.lr=0.05; 7 F# T1 d# G$ A$ x! F%net.trainParam.lr_inc=1.05;& v. k, F; F3 @5 |# ~# I net.trainParam.epochs=10000;9 e: i' f3 X8 y+ k net.trainParam.goal=1e-5; + W' M' z5 O, A5 g# U# s1 m$ B- ^ % randn('seed',192736547);/ g% D: i& _; K2 y % net=init(net); 9 R, j% L1 j7 F) `$ Z# i! f[net,tr]=train(net,P,T);3 ]* O& J O2 O' E/ X( @3 H' F minmax_var=minmax(P); ) K1 M( B2 c2 Vminmax_target=minmax(T);2 R) v+ f4 r0 E: r' g$ T save('result','net','minmax_var','minmax_target');

% 将网络输 转换成! u, g( F: a" X1 y) Z* q 1 R, W# U$ l2 @, j1 G load('result');; I5 V: P4 t' q# n# b9 h' O* J! q [Pnew,endPop,bestSols,trace]=ga(minmax(P),'fitness');# t: @, @5 M4 Y' I1 G8 z# I 9 B) h; [# ~+ A %性能跟踪/ S5 M/ r' c: s; }9 E$ k' t: M plot(trace(:,1),trace(:,3),'y-');, J, ]; U- B0 K' ]3 j$ U hold on 4 R, d, h+ G, Y5 q0 r) `- c plot(trace(:,1),trace(:,2),'r-'); 9 f3 A" h) a c+ Y% Y+ S xlabel('Generation'); 5 O, Z; F7 q0 h- d6 ^' e) r ylabel('Fitness');4 C- H, v8 O. W! W legend('change of solution','average change of population');9 V/ Y! \6 \% d( c: Y8 d TRAINLM, Epoch 0/10000, MSE 12.2801/1e-005, Gradient 1739.63/1e-010% @' y- D- ?: q; q4 ]5 p TRAINLM, Epoch 10/10000, MSE 0.694955/1e-005, Gradient 93.6508/1e-010 . L; Q- p! l0 S6 F: L- }TRAINLM, Epoch 20/10000, MSE 0.0242391/1e-005, Gradient 2.89095/1e-0100 h; N, q, { g2 y0 F TRAINLM, Epoch 30/10000, MSE 0.0206875/1e-005, Gradient 4.2655/1e-010% |7 F3 s& ~. Q( }1 ^0 @- I TRAINLM, Epoch 40/10000, MSE 0.0185878/1e-005, Gradient 18.249/1e-010: q! R' b: C2 g- h N# [3 y7 i, X TRAINLM, Epoch 50/10000, MSE 0.00947447/1e-005, Gradient 55.0854/1e-010! s' o8 ~4 R- z5 Y TRAINLM, Epoch 53/10000, MSE 1.24279e-006/1e-005, Gradient 0.504667/1e-010 \5 {. W$ E3 g; h' ?TRAINLM, Performance goal met.

??? Undefined function or variable 'minmax_target'.

Error in ==> D:\MATLAB6p5p1\work\fitness.m6 O9 H0 K) G) f7 k+ s On line 2 ==> min_target=minmax_target(1);

Error in ==> D:\MATLAB6p5p1\work\initializega.m $ H2 C7 k2 r. k2 @* A* \7 X5 MOn line 41 ==> eval(estr);

Error in ==> D:\MATLAB6p5p1\work\ga.m: h9 t. i+ [ B, s) p: W5 _6 s% k On line 148 ==> startPop=initializega(80,bounds,evalFN,evalOps,opts(1:2));+ l& X* F. k( P3 Y3 R 所使用的适应度函数是

function [sol,eval]=fitness(P,options) , A# Y5 j2 P. g min_target=minmax_target(1);9 W8 B" r; c; K( p# u max_target=minmax_target(2); 3 p; F* x2 y0 z eval=sim(net,P) # V/ x: I; u0 f0 [7 ~9 R: j if isformax 5 v% x2 Q! y1 Z4 X( _3 f& m' f eval=eval-min_target+(max_target-min_target); 2 C" v, q( p2 o else. F# `- T0 A/ x8 a. k2 r eval=-eval+max_target+(max_target-min_target);5 B+ P5 g& \ y( F end


作者: cdqxc    时间: 2008-2-26 22:37

有没有一种数据处理方法可以改进BP神经网络的预测精度的?


作者: lzh0601    时间: 2008-4-19 23:15
找本专著看吧
作者: dsh1001    时间: 2008-10-28 16:27
我也是你这种问题,就是通过实验获得数据,然后建立模型进行训练、仿真和预测,这些都可以
; U4 c1 s7 K! ]+ G% ]! t( Y  [! j/ I就是最后如何实现参数的优化,就是给定了输出如何确定最优的输入3 \1 C3 N, v$ Q2 v) }" D
好像是用模拟退火算法之类的可以实现,目前还没有解决,期待你解决以后多交流
作者: chang_bo321    时间: 2009-2-22 16:25
是个比较麻烦的问题啊
作者: 王捷浩    时间: 2009-3-5 23:30
额。。。比较复杂啊~呵呵  找篇文章看看吧~
作者: daidai0124    时间: 2009-3-18 20:27
啊.... 这么巧和我的问题一样啊,有那位高手进来详细的解答解答啊
作者: raosu    时间: 2009-4-1 08:43
顶!!!!!!!!!!!!
作者: lyaya2004    时间: 2009-6-4 09:11
有人研究出来了吗?多交流。。。。
作者: jluzhking    时间: 2009-8-30 00:46
初学,路过
作者: 347196468    时间: 2010-8-14 21:19
%获得网络的输入样本P和目标样本T8 ~& w) C( K; Q/ g) e2 A' }+ t1 o) s9 h/ G& s# |, l
P=[1 0.6 0.1 0 0 0 0   1 0.5 0 0 0 0 0;4 K3 v* b+ @: I" G2 C& ?2 S& z0 n$ M, G8 l# L7 ~6 D
1 0.6 0.1 0 0 0 0   0 0.5 1 0.4 0 0 0;9 |( R: l2 i; {7 p. o2 J% m
% M3 K: c; n1 J% I8 c8 C, R1 0.6 0.1 0 0 0 0   0 0 0 0.4 1 0.6 0;1 z9 D; |+ F0 ~# R
) A, ^* Z% o  j1 0.6 0.1 0 0 0 0   0 0 0 0 0 0 0.8;) W( b  h! d6 V3 J9 O& b# e  y% u; K' R9 O; g: v
0 0.6 0.6 0 0 0 0   1 0.5 0 0 0 0 0;; G6 ?) Q# P: @. f4 i& c8 ]( s: E# a7 y5 b
0 0.6 0.6 0 0 0 0   0 0.5 1 0.4 0 0 0;$ N  F( j  A$ |- d1 k$ G/ K+ k" Y; Q
! T, {1 e* Z: ]3 B- R0 0.6 0.6 0 0 0 0   0 0 0 0.4 1 0.6 0;
- H& X- Q; X9 J( M( r2 u6 Q* |! h# _4 H2 z2 U6 _0 0.6 0.6 0 0 0 0   0 0 0 0 0 0 0.8;% V, f5 |% e2 r3 ^& D4 t8 Z, L9 f+ k& g' }. t0 x$ T. ?
0 0 0.6 1 0 0 0    1 0.5 0 0 0 0 0;0 ~$ g: P( E/ n( u% T; M+ l, Y' H* M
+ s/ }$ }2 u' J' O& Y0 0 0.6 1 0 0 0    0 0.5 1 0.4 0 0 0;
$ d, h! ^, ^- O( ?  J* |$ |2 D% R# V' y- F! J/ [, B* f0 0 0.6 1 0 0 0    0 0 0 0.4 1 0.6 0;" h( s# ?% u' g$ h* X
, q4 [( U: [8 s/ R7 {1 Z: o0 0 0.6 1 0 0 0    0 0 0 0 0 0 0.8;
2 Y* c6 |$ J, K( `( a4 L; |9 S- _7 x- i' b" f* G5 P- G0 0 0 0 1 0.6 0    1 0.5 0 0 0 0 0;! p$ q8 S1 V+ @9 t7 i. o+ c6 N3 X7 H! A8 u9 x, F+ d( n7 x
0 0 0 0 1 0.6 0    0 0.5 1 0.4 0 0 0;5 e* _9 w. i: p' ]; U. H+ K# f5 R- C# }" r; k! q
0 0 0 0 1 0.6 0    0 0 0 0.4 1 0.6 0;  ^9 S7 i) L" N1 r+ {0 g& I
9 ^6 \5 b3 T" |+ r. E0 0 0 0 1 0.6 0    0 0 0 0 0 0 0.8]';/ Q' c' j* D1 Y9 w. a5 [$ i" ?: Q; v6 i. [
T=[1 0.5 0 0 0 0 0 0;+ F, _7 y% q  B" Z
, \% T8 j5 p- n. g% l8 O+ c* g7 i3 K0 0 0 0.2 0.6 1 0.6 0.2;
* T# c& s/ |/ |1 u/ E. x5 B/ K' M5 N0 I, R/ x! D0 |1 g0 0 0 0.2 0.6 1 0.6 0.2;2 F- g1 H, Q6 j1 {  Y
* b& ^5 x9 _7 }  E0 0 0 0.2 0.6 1 0.6 0.2;
; k0 r) F4 l( c7 l) o% D6 e/ B1 ^( h6 V) |0.4 0.8 1 0.8 0.4 0.2 0 0;
& ^, @# [$ R1 ^  q6 z* [  h1 k7 Z/ Y! w( R  I* }0 0 0 0.2 0.6 1 0.6 0.2;/ y8 U  A! f( O( H( m  \' e+ E" r6 ?+ y
0 0 0 0 0 0.2 0.5 0.8;" ]# `0 A+ Q. c# X/ i" _! M+ t
) a8 J+ Z, ~8 {1 q3 Y! `( g0 0 0 0.2 0.6 1 0.6 0.2;. q  Y8 O4 |5 c( r3 l9 C# v$ d) m  e
2 P- E1 M8 K8 Y) ?/ M- m0 0 0 0.2 0.6 1 0.6 0.2;( K1 W& p9 b7 r6 a7 [; a" K% d: O& u0 i; L( Z. O7 ^
0 0 0 0.2 0.6 1 0.6 0.2;4 R9 j2 O7 J/ X( a! |  T* `3 t/ P' s- l! Z
4 m6 e3 Y* J! u( n. u3 U0 0 0 0 0 0.2 0.5 0.8;* B7 y0 ]* [/ N0 d
. e2 {, q! g& u! D* o) @! t( l4 Z0 0 0 0 0 0.2 0.5 0.8;5 }/ y1 N  S, m# m, Z4 a: o$ S; S% v+ @  q
0 0 0 0.2 0.6 1 0.6 0.2;, Q& Q; h+ \' @+ D9 W, _6 t; E. ~9 _+ x- x" O& {8 j. d
0 0 0 0.2 0.6 1 0.6 0.2;% a& I% x. Y* b! S3 Z- F1 b  C# F( S% X* f$ Y
0 0 0 0 0 0.2 0.5 0.8;% M# L- T4 j: D( X
; M+ J5 J' ?6 ?* Z0 k: e# x0 0 0 0 0 0.2 0.5 0.8]';- x7 o2 s0 _- X
( x0 l- }8 I4 t* e%根据Kolmogorov定理,输入层有14个节点,所以中间层有29个节点$ f5 v3 N( Z/ H
: W. H  y+ b4 ?% [) b( q: L/ N%中间层神经元的传递函数为'tansig'# z8 ^- Q6 z7 c
4 F  _$ S% C' Z& c% }) G# y/ ~%输出层有8个节点,其神经元传递函数为logsig% x) e: b% l! P' y
, \; `2 P* v% b( k0 h- u7 H6 H) `%训练函数采用traingdx+ ^& D3 z1 r7 b) d5 S" o
0 C& m3 c0 \* Nnet=newff(minmax(P),[29,8],{'tansig','logsig'},'traingdx');- ?/ b# _# j0 f* p8 n" w/ h" V
- j7 E7 D* d  f$ B  T+ b9 v%训练步数为1000次" ?8 _& L' `% A% T; |1 ?6 e8 Y4 {6 J) j$ k( _; T. P9 k# P
%训练目标误差为0.001' t4 U) G+ G+ l. P& o6 Y
  ]! [) p+ D+ cnet.trainParam.epochs=1000;* |  r9 y5 [5 H2 N5 i+ Q6 @
/ ?/ {# a0 C; Snet.trainParam.goal=0.001;7 F# [4 d% K8 t
; H% t7 b: r8 W, G9 O+ i5 {* Lnet=train(net,P,T);; \7 P2 W, `. E+ h, o/ B# I1 l) M
- C; J% r3 Q+ j- ]/ ^Y=sim(net,P);3 w8 O% U& Z1 c5 w
: ]' a& `$ b' K& z& a%求训练值在每一个点上的误差: \5 F' N/ k7 o
# N8 i- \, }) p8 B0 U# `for i=1:16
2 k1 L& a3 g  z) d  Z2 y8 B* m8 \- W: _! N/ j    x(i)=norm(Y(:,i));
. H2 D( [3 K( {" j5 o( Z9 A; [  n* ^* P% e




欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5