数学建模社区-数学中国

标题: BP神经网络算法的改进及在MATLAB中的实现 [打印本页]

作者: wangyesmile    时间: 2009-8-27 19:10
标题: BP神经网络算法的改进及在MATLAB中的实现
BP神经网络算法的改进及在MATLAB中的实现。用神经网络的来看啊!

BP神经网络算法的改进及在MATLAB中的实现.rar

217.03 KB, 下载次数: 370, 下载积分: 体力 -2 点


作者: ivy_1031    时间: 2009-8-27 20:03
这个要学习学习 不是很懂呢 谢谢
作者: yangshangxuan    时间: 2009-9-8 15:19
谢谢楼主,这资料我有用~~
作者: 矢侠    时间: 2009-9-9 10:44
这种改进是基于什么的?
谢谢
作者: JocelynHUI    时间: 2009-9-9 10:49
感觉应该很有用的,正愁着神经网络怎么办呢~~~
作者: JocelynHUI    时间: 2009-9-9 10:50
还是同一个问题,PDF中的程序我不能转化到word里面去,只能很笨的敲代码,大侠们帮帮我吧
作者: hnbc    时间: 2009-9-10 21:40
谢谢!!!!!!!
作者: hnbc    时间: 2009-9-10 21:40
谢谢!!!!!!!!
作者: chjianger    时间: 2009-9-10 22:14
shibushiyo
作者: chjianger    时间: 2009-9-10 22:15
xiazaikanakn
作者: 137079400    时间: 2009-12-26 10:30
VB MMMMMMMMMMMMMMMMMLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLL
作者: 米豆    时间: 2009-12-28 20:32
正需要这方面的!~~谢谢楼主!!!!
作者: haodong2009    时间: 2010-1-8 02:39
学习中,谢谢啦。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
作者: danielfaye    时间: 2010-1-10 09:38
谢谢楼主的分享,很有用的样子啊@@@!!!
作者: ilovehlj    时间: 2010-1-11 08:50
shenme ziliao kankan ba weishenme
作者: yinfeiyangfang    时间: 2010-1-11 11:46
回复 1# wangyesmile

这个要学习学习 不是很懂呢 谢谢(本文来自于数学中国社区,网址为http://www.madio.net/mcm
作者: yinfeiyangfang    时间: 2010-1-11 11:49
这个要学习学习 不是很懂呢 谢谢(本文来自于数学中国社区,网址为http://www.madio.net/mcm
作者: yinfeiyangfang    时间: 2010-1-11 11:49
这个要学习学习 不是很懂呢 谢谢(本文来自于数学中国社区,网址为http://www.madio.net/mcm
作者: yinfeiyangfang    时间: 2010-1-11 11:49
这个要学习学习 不是很懂呢 谢谢(本文来自于数学中国社区,网址为http://www.madio.net/mcm
作者: guanghui86688    时间: 2010-1-14 11:38
谢谢楼主,希望能从中学习到东西,还是得下载啊
作者: 三斤    时间: 2010-1-27 08:23
希望能有用,谢谢!!!!!!!!
作者: quite    时间: 2010-2-2 09:30
谢谢!!!!!!!!!![img][/img]
作者: 炎炎    时间: 2010-2-20 00:13
正想学习下,真是谢谢啊!!!!!!!!!!
作者: greatwail    时间: 2010-3-3 14:58
回复 1# wangyesmile

非常感谢,下载个
作者: yongshou    时间: 2011-4-25 19:45
不是很懂呢 谢谢
作者: 犽犽饼    时间: 2011-9-20 17:01
下载不了啊、~~~~~~~~~······················
作者: 771514817    时间: 2011-9-22 20:50

作者: 蓝色的孟    时间: 2011-9-25 10:25

作者: 蓝色的孟    时间: 2011-9-25 10:26

作者: zhangweitang    时间: 2011-10-6 10:36
这个要学习学习 不是很懂呢 谢谢
作者: zhangweitang    时间: 2011-10-6 10:38
这个真的不动懂,怎么升级
作者: zhangweitang    时间: 2011-10-6 10:39
谢谢!!!!!!!!
作者: 数学中国管理员    时间: 2011-12-24 18:00
加油哦,支持
作者: alair009    时间: 2012-1-26 09:51
特意来佩服一下···33994192152457609057675051076698788480936147018734545070962469333711180130355823
作者: talentyang    时间: 2012-2-3 18:20
谢谢楼主的分享!
作者: 未完待续    时间: 2012-2-12 13:42
支持,必须支持!
作者: kti0813    时间: 2012-2-22 22:12
不错  收下了
作者: kti0813    时间: 2012-2-22 22:30
hhhhhhhhhhhhhhhhhhhhhh
作者: kti0813    时间: 2012-2-23 20:44
ddddddddddddddddddd
作者: 123水无痕    时间: 2012-2-24 08:51
好东西,学习学习!
作者: hanjuan007    时间: 2012-4-7 17:58
支持一下,希望由于
作者: zsmchwszsm    时间: 2012-9-3 15:33
楼主威武了 哦
作者: cqut    时间: 2012-9-6 16:23
xx非常感谢
作者: 天行者fl    时间: 2012-9-7 20:03
谢谢分享~~~
作者: wuqiang1123    时间: 2012-10-13 11:21

>> P=[0.511097 0.000000 0.610521 0.703784 0.152057 0.243542 0.528229 0.585062 0.575574 0.846734 0.708163;
      0.245214 0.355971 0.403063 0.536505 0.081968 0.546125 0.778293 0.353942 0.388105 0.711055 0.811224;
      0.096655 0.243478 0.394945 0.000000 0.397686 0.818081 0.667404 0.070539 0.521161 0.326633 0.533673;
      0.170753 0.513043 0.215633 0.082461 0.167467 0.919188 0.742202 0.390041 0.247884 0.898241 0.658163;
      0.417384 0.327536 0.617654 0.326234 0.081782 0.959779 0.648105 1.000000 0.415961 0.940955 0.495918;
      0.278268 0.533333 0.575400 0.038675 0.364196 0.819188 0.910544 0.473029 0.299879 0.572864 0.628571;
      0.195089 0.605797 0.531182 0.073679 0.327506 0.514760 0.000000 0.601660 0.264813 0.859296 0.640816;
      0.621518 0.237681 0.479772 0.546998 0.414864 0.523985 0.742202 0.377593 0.403869 0.591709 0.740816;
      0.454796 0.733333 0.397027 0.078122 0.261989 0.483395 0.856148 0.385892 0.414752 0.396985 0.683673;
      0.385420 0.733333 0.491491 0.007739 0.315568 0.878229 0.922660 0.240664 0.313180 0.531407 0.600000;
      0.354546 0.573913 0.400824 0.185406 0.168788 0.391144 0.631348 0.647303 0.420798 0.728643 0.759184;
      0.359994 0.762319 0.617252 0.013225 0.117663 0.878229 0.844548 0.419087 1.000000 0.863065 0.728571;
      0.261923 1.000000 0.458592 0.136301 0.231462 0.697471 0.631348 0.390041 0.299879 0.565327 0.867347;
      0.375976 0.297275 0.293763 1.000000 0.150754 0.749077 0.502449 0.300830 0.507860 0.716080 0.853061;
      0.590280 0.466667 0.418887 0.723622 0.145586 0.948339 0.729312 0.585062 0.597340 1.000000 0.000000;
      0.321492 0.501449 0.353234 0.102278 0.251131 0.176384 0.842743 0.460996 0.259976 0.909548 0.878571;
      0.393411 0.646377 0.364897 0.042492 0.545196 0.575646 1.000000 0.004149 0.217654 0.781407 0.650000;
      0.435182 0.588406 0.420530 0.099232 0.291452 0.424354 0.763341 0.045643 0.395405 0.858040 0.629592;
      0.346918 0.646377 0.435498 0.223956 0.193329 0.464945 0.579789 0.149378 0.430472 0.796482 0.689796;
      0.236497 0.556522 0.458135 0.019358 0.208913 0.040590 0.399752 0.049793 0.611850 0.806533 0.636735;
      0.278268 0.762319 0.517459 0.206579 0.142947 0.221402 0.811807 0.273029 0.354293 0.772613 0.650000];
T=[3 24 28 36 6 100 41 10 25 32 19 49 11 2 4 16 46 65 7 77 20];
net=newff([0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1],[13,1],{'tansig','logsig'},'trainlm');
net.trainParam.epochs=10000;net.trainParam.goal=0.01;
LP.lr=0.1;
net=train(net,P',T)
TRAINLM, Epoch 0/10000, MSE 1491.6/0.01, Gradient 432.901/1e-010
TRAINLM, Epoch 3/10000, MSE 1466.1/0.01, Gradient 0/1e-010
TRAINLM, Minimum gradient reached, performance goal was not met.


net =

    Neural Network object:

    architecture:

         numInputs: 1
         numLayers: 2
       biasConnect: [1; 1]
      inputConnect: [1; 0]
      layerConnect: [0 0; 1 0]
     outputConnect: [0 1]
     targetConnect: [0 1]

        numOutputs: 1  (read-only)
        numTargets: 1  (read-only)
    numInputDelays: 0  (read-only)
    numLayerDelays: 0  (read-only)

    subobject structures:

            inputs: {1x1 cell} of inputs
            layers: {2x1 cell} of layers
           outputs: {1x2 cell} containing 1 output
           targets: {1x2 cell} containing 1 target
            biases: {2x1 cell} containing 2 biases
      inputWeights: {2x1 cell} containing 1 input weight
      layerWeights: {2x2 cell} containing 1 layer weight

    functions:

          adaptFcn: 'trains'
           initFcn: 'initlay'
        performFcn: 'mse'
          trainFcn: 'trainlm'

    parameters:

        adaptParam: .passes
         initParam: (none)
      performParam: (none)
        trainParam: .epochs, .goal, .max_fail, .mem_reduc,
                    .min_grad, .mu, .mu_dec, .mu_inc,
                    .mu_max, .show, .time

    weight and bias values:

                IW: {2x1 cell} containing 1 input weight matrix
                LW: {2x2 cell} containing 1 layer weight matrix
                 b: {2x1 cell} containing 2 bias vectors

    other:

          userdata: (user stuff)
求教得到的结果是一条直线,没有达到预定误差,应该怎样设计网络结构????

作者: socute12    时间: 2012-10-23 08:06
学习了!!!!!
作者: 中庸    时间: 2012-10-23 10:06
ddddddddddddd
作者: z211211211    时间: 2012-10-24 12:50
不错啊,很实用
作者: socute12    时间: 2012-10-24 15:54
学习了  感谢LZ
作者: z211211211    时间: 2012-10-26 20:05
下载来看看快快快
作者: 1014291315    时间: 2013-7-16 15:46
谢谢啊,分享了
作者: jiali6688    时间: 2013-8-1 16:27
很好很好,正需要
作者: 月乐跃    时间: 2013-8-21 11:14

作者: Arbitrary1111    时间: 2013-8-22 21:06
thanks for giving
作者: 為袮じ☆執著    时间: 2014-3-20 08:33
嘿嘿 来学习学习
作者: jsjxrj1201hjx    时间: 2014-5-27 21:50
猥琐誉为啊
作者: 離岸風    时间: 2014-7-29 08:12
怎样的改进方法?
作者: 狼之魂汪洋    时间: 2014-8-5 09:12
很好,很有用,不知道楼主这样的论文是在哪里找的,为什么我在一些文库找的都没有程序代码?
作者: 2625482530    时间: 2018-6-9 09:57
挺好的,BP神经网络,谢谢分享

作者: zsefh    时间: 2018-6-14 08:23
很好的资料

作者: zsefh    时间: 2018-6-14 08:23
很好的资料

作者: 421018735    时间: 2019-1-3 12:35
改进算法更简单





欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5