数学建模社区-数学中国

标题: 神经网络权阈值调整偏微分方程如何编程 [打印本页]

作者: magic2728    时间: 2013-9-8 02:10
图?
作者: 846257805    时间: 2013-9-9 10:50
file:///D:/Desktop/图片1.png
作者: 846257805    时间: 2013-9-9 10:52
QQ截图20130905234521.jpg
作者: 846257805    时间: 2013-9-9 10:53
净心、精心 发表于 2013-9-6 16:55
' u2 @& e3 h. Q8 }6 W( [0 M* N% V图呢?

8 R; r2 ]5 h% E) T& _' `不好意思,现在图已给,新手求助
作者: 846257805    时间: 2013-9-9 10:54
magic2728 发表于 2013-9-8 02:10
- j% }  J" L" Z, v图?

, N* Q, e) ?% R1 M- Z0 |2 g不好意思,新手发帖,不会给图,现在图已给出,求助
作者: magic2728    时间: 2013-9-9 16:42
这个不用你手动解,matlab神经网络算法自动就是按照这个模式进行的,你会用工具箱就行了!
作者: 846257805    时间: 2013-9-9 16:44
但是不是说只会用工具箱不好吗?工具箱不具有灵活性,最好是自己会编,而且还可加深理解
作者: 846257805    时间: 2013-9-9 16:45
magic2728 发表于 2013-9-9 16:42 这个不用你手动解,matlab神经网络算法自动就是按照这个模式进行的,你会用工具箱就行了!

$ q9 I9 l, f* W/ C. C' Z( H但是不是说只会用工具箱不好吗?工具箱不具有灵活性,最好是自己会编,而且还可加深理解
作者: magic2728    时间: 2013-9-9 16:53
846257805 发表于 2013-9-9 16:45 - Q) d6 s1 e0 a9 x
但是不是说只会用工具箱不好吗?工具箱不具有灵活性,最好是自己会编,而且还可加深理解

0 g7 C* g; x/ j1 J: C6 S对啊,但是解这个方程也需要初始值啊,然后有初始值之后这是个差分方程,逐步往后迭代就行了。
作者: 846257805    时间: 2013-9-9 19:45
是迭代做的吗?但是我在书上看到说可以根据所给的激励函数,求出E/ω的微分,如下是我看到的源代码% k; `& [5 f, t, d
Delta2=error
5 [+ n! ^4 y+ l8 J3 sDelta1=w2'*Delta2.*hiddenout.*(1-hiddenout)
- U1 ^% [+ ?# [6 _1 ~" rdw2=Delta2*hiddenout') t! n3 i: W3 d
db2=Delta2*ones(samnum,1)
& n, Y8 J- N- P' X% c( q  i0 C- Odw1=Delta1*samin'. Q/ e  Y2 m$ T2 i6 K$ C
db1=Delta1*ones(samnum,1)( m2 U$ h& H$ N: z
w2=w2+lr*dw2* c6 ^8 q2 I. Z: G
b2=b2+lr*db28 v* F' Q3 W) a4 o+ D: S
error是能量函数,即误差平方和% E+ `; w6 |- @4 m7 l
hiddenout是隐含层输出/ {2 F4 G% n* w$ o8 A; v7 l
samnum是输入样本数量
0 k, v8 c8 S. P1 d* g3 ^& hsamin是输入样本; V1 D" T9 f7 d! ~9 d2 M1 \( ?  X3 [
w权值" T* \4 _. M& F  u* W* \2 }
b阈值5 m) Z, E1 n8 V$ i' c7 v
以上是3层神经网路,隐含层激励函数是logsig
& C  n& Y% l( S4 j
, Y+ D9 t8 S8 v* R( U' y' H. M0 Y( Q2 T5 l) d
1 \! i7 ?" ?# \: H# S# i
我就是看不懂为什么一个微分方程就变成一个式子了?8 t, ^* e! m# L7 g8 d/ ^
求解?
* O) q# b; g' i4 \3 S3 h, j- C
作者: 846257805    时间: 2013-9-9 19:46
是迭代做的吗?但是我在书上看到说可以根据所给的激励函数,求出E/ω的微分,如下是我看到的源代码. s( q+ C0 X  c5 l0 k' e# l$ c9 [
Delta2=error
. e. S& S1 n0 b! c! DDelta1=w2'*Delta2.*hiddenout.*(1-hiddenout)
2 }0 }& |4 C  w/ p; O+ m# Odw2=Delta2*hiddenout'4 I7 d0 ^1 n, h, k+ P- `- P
db2=Delta2*ones(samnum,1)
- F9 D9 E- l4 V- D1 n2 K8 ddw1=Delta1*samin'3 Y/ c- d" Z9 }: |: T% t# n9 {
db1=Delta1*ones(samnum,1)
9 ~2 H" @5 x: o; e. F' T+ uw2=w2+lr*dw2& _( n% O5 f6 s$ T$ ]. W- c
b2=b2+lr*db2
) F) K' g0 W5 _5 l2 verror是能量函数,即误差平方和  h- m4 I# z* V+ [2 z) X; i
hiddenout是隐含层输出9 n6 \2 P$ u% O* W
samnum是输入样本数量; ]* [- o% d8 y  j: k( o( v) ]# n
samin是输入样本
/ M- m  h9 K! w* \" E# {/ `1 sw权值3 x; i, i9 }' I( U9 [. b2 l
b阈值
/ c2 r2 O/ ^6 c9 t以上是3层神经网路,隐含层激励函数是logsig3 |6 c2 I5 \6 s; y2 I7 J

5 p! m( y) }* R% ?& L1 ~  {. d9 S" @# O! M
% q- ~* z; e0 B) ^2 y
我就是看不懂为什么一个微分方程就变成一个式子了?6 w, _, C" H0 e% M; f
求解?& \7 x8 u2 ^# f& ~) ]- V

作者: 846257805    时间: 2013-9-10 23:56
magic2728 发表于 2013-9-9 16:53
1 V$ [9 o- |/ D对啊,但是解这个方程也需要初始值啊,然后有初始值之后这是个差分方程,逐步往后迭代就行了。
, I: Z6 V) U8 l; B. @4 L8 v7 f
我问的不够好吗,还是写的不清楚呀????为什么不回一下?
作者: 846257805    时间: 2013-9-10 23:57
有人吗??????别沉了呀!!!!!!




欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5