QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2335|回复: 2
打印 上一主题 下一主题

[书籍资源] 我见过的最脑残也是最好懂的人工神经网络算法教程(四)

[复制链接]
字体大小: 正常 放大

715

主题

213

听众

8571

积分

  • TA的每日心情
    开心
    2017-4-28 17:18
  • 签到天数: 415 天

    [LV.9]以坛为家II

    社区QQ达人 邮箱绑定达人 风雨历程奖 最具活力勋章 发帖功臣 元老勋章 新人进步奖

    群组乐考无忧考研公益讲座

    群组2017美赛两天强训

    群组模友会交流视频

    群组

    群组国赛讨论

    跳转到指定楼层
    1#
    发表于 2016-3-2 09:22 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    4.4  CNeuralNet.h(神经网络类的头文件)
      在CNeuralNet.h 文件中,我们定义了人工神经细胞的结构、定义了人工神经细胞的层的结构、以及人工神经网络本身的结构。首先我们来考察人工神经细胞的结构。

    1 e4 N# w( K, c% _' f( E6 M
    4.4.1  SNeuron(神经细胞的结构)
    1 Q: s$ M# W4 d( I# O. ]9 j' }
       这是很简单的结构。人工神经细胞的结构中必须有一个正整数来纪录它有多少个输入,还需要有一个向量std:vector来表示它的权重。请记住,神经细胞的每一个输入都要有一个对应的权重。
    " N$ H) e7 m/ |6 ?5 C
    Struct SNeuron
    {
         // 进入神经细胞的输入个数
         int m_NumInputs;
    # O$ l/ b6 O( ]# ?
         // 为每一输入提供的权重
         vector<double> m_vecWeight;

    : o2 a* d2 f# B, T; t* W
         //构造函数
         SNeuron(int NumInputs);
      };
    1 K3 B8 u7 v2 E) F6 _; ]
    以下就是SNeuron 结构体的构造函数形式:

    ( r! _9 l# _" d; `
    SNeuron::SNeuron(int NumInputs): m_NumInputs(NumInputs+1)
    (
         // 我们要为偏移值也附加一个权重,因此输入数目上要 +1
         for (int i=0; i<NumInputs+1; ++i)
         {
             // 把权重初始化为任意的值
             m_vecWeight.push_back(RandomClamped());
         }
    }
      由上可以看出,构造函数把送进神经细胞的输入数目NumInputs作为一个变元,并为每个输入创建一个随机的权重。所有权重值在-1和1之间。
    4 Q% d/ s+ p! A9 i4 ]
            这是什么? 我听见你在说。这里多出了一个权重! 不错,我很高兴看到你能注意到这一点,因为这一个附加的权重十分重要。但要解释它为什么在那里,我必须更多地介绍一些数学知识。回忆一下你就能记得,激励值是所有输入*权重的乘积的总和,而神经细胞的输出值取决于这个激励值是否超过某个阀值(t)。这可以用如下的方程来表示:
    & |3 u7 y' X2 b  p+ o4 N* S# }
             w1x1 + w2x2 + w3x3 +...+ wnxn >= t
    4 Z8 o5 Z! R3 Z$ m* @5 Q
      上式是使细胞输出为1的条件。因为网络的所有权重需要不断演化(进化),如果阀值的数据也能一起演化,那将是非常重要的。要实现这一点不难,你使用一个简单的诡计就可以让阀值变成权重的形式。从上面的方程两边各减去t,得:
    , |' O+ ?1 U2 Z7 L
            w1x1 + w2x2 + w3x3 +...+ wnxn –t >= 0

    & m; M! e) d+ z2 q& ~. S
    这个方程可以再换用一种形式写出来,如下:
    : r; E/ r$ C' q0 p1 m0 p. H
            w1x1 + w2x2 + w3x3 +...+ wnxn + t *(–1) >= 0

    8 Z) z* K4 G( H! O/ b8 K2 X) T
      到此,我希望你已能看出,阀值t为什么可以想像成为始终乘以输入为 -1的权重了。这个特殊的权重通常叫偏移(bias),这就是为什么每个神经细胞初始化时都要增加一个权重的理由。现在,当你演化一个网络时,你就不必再考虑阀值问题,因为它已被内建在权重向量中了。怎么样,想法不错吧?为了让你心中绝对敲定你所学到的新的人工神经细胞是什么样子,请再参看一下图12。
    # W1 f1 c2 I  i/ B0 _1 i" ?. R
    0 [0 f4 A1 B% B# J. ^5 B( s
    ' d4 |+ S8 A7 ~. b

    1 Y- V2 a* J9 }/ @3 @  d
    图12 带偏移的人工神经细胞。

    4 r4 T/ M# _+ e/ n, Y$ U7 X) }/ ?
    4.4.2  SNeuronLayer(神经细胞层的结构)
       神经细胞层SNeuronLayer的结构很简单;它定义了一个如图13中所示的由虚线包围的神经细胞SNeuron所组成的层。
    / s) h8 `! H; R) [/ w# Q
    . ^6 h$ p, f9 {( `' j

    & m8 ^9 R5 ?0 f; X  ?# J* @6 z7 U. L
    + [0 u4 ]9 s( Z1 ]
         图13 一个神经细胞层。
    * b; {- v6 s3 [7 s+ D# ~  B# \( V# E" k
      以下就是层的定义的源代码,它应该不再需要任何进一步的解释:
    ; e2 |) f  I+ O, E7 a, ^0 N
    struct SNeuronLayer
    {
        // 本层使用的神经细胞数目
       int                     m_NumNeurons;
    # l* ]' _" q: O  m, y# ~; W" B5 Y
          // 神经细胞的层
       vector<SNeuron>   m_vecNeurons;

    0 D- E4 h% ^, U& c" |+ H; V+ G
      SNeuronLayer(int NumNeurons, int NumInputsPerNeuron);
    };
    & [' x" i! G* v! Y. Z. W
    4.4.3  CNeuralNet(神经网络类)

    , X( L" K' f. R8 [4 r! e
      这是创建神经网络对象的类。让我们来通读一下这一个类的定义:
    . V; ~* s/ ~1 X$ h0 e: i* C
    class CNeuralNet
    {
    private:
        int                m_NumInputs;
    * \- `. O) U5 J7 ?9 ?% b4 b
        int                m_NumOutputs;
    1 n& c8 k; z' m  C4 g
        int                m_NumHiddenLayers;
    5 \' i! ~8 M# c0 n& Q
        int         m_NeuronsPerHiddenLyr;

      b$ K% X3 O) n4 n* \4 ?
        // 为每一层(包括输出层)存放所有神经细胞的存储器
        vector<SNeuronLayer>  m_vecLayers;
    * E4 Q: w# p( w2 _- A! U
      所有private成员由其名称容易得到理解。需要由本类定义的就是输入的个数、输出的个数、隐藏层的数目、以及每个隐藏层中神经细胞的个数等几个参数。

      h, d- n' K' Y$ D0 `
    public:
    4 H2 Y$ n* n/ T/ q  Q. S5 a; J
         CNeuralNet();

    ! I/ C0 V' C6 f  P7 }/ D
    该构造函数利用ini文件来初始化所有的Private成员变量,然后再调用CreateNet来创建网络。
    9 P- T5 F1 t1 ~$ h$ y
         // 由SNeurons创建网络
         void    CreateNet();
    # ~, }, y5 I6 ?, X
    我过一会儿马上就会告诉你这个函数的代码。
    0 v2 E$ }# h* S6 ^
         // 从神经网络得到(读出)权重
         vector<double>   GetWeights()const;

    6 p# \9 v" t/ R( |. \, i
      由于网络的权重需要演化,所以必须创建一个方法来返回所有的权重。这些权重在网络中是以实数型向量形式表示的,我们将把这些实数表示的权重编码到一个基因组中。当我开始谈论本工程的遗传算法时,我将为您确切说明权重如何进行编码。

    0 ?! k' P# O6 ]% G- K/ o$ f- r0 N
        // 返回网络的权重的总数
        int GetNumberOfWeights()const;
    . f) B, R" r' O# \
        // 用新的权重代替原有的权重
        void PutWeights(vector<double> &weights);
    4 a, Z" a( [, e2 [+ R
            这一函数所做的工作与函数GetWeights所做的正好相反。当遗传算法执行完一代时,新一代的权重必须重新插入神经网络。为我们完成这一任务的是PutWeight方法。
    6 l* k% ^. p) F" I
         // S形响应曲线
        inline double  Sigmoid(double activation, double response);
    , a- y! U1 @3 s* M9 I2 a" m
         当已知一个神经细胞的所有输入*重量的乘积之和时,这一方法将它送入到S形的激励函数。
    & V2 G$ ~/ E0 g# I. Z1 M; i& m
         // 根据一组输入,来计算输出
         vector<double> Update(vector<double> &inputs);
    6 j, I9 Q+ E4 o8 |1 q1 ?/ _
    对此Update函数函数我马上就会来进行注释的。

    5 U( z" @5 ]* K  x& p2 Z) r
    }; // 类定义结束
    + k. I& Z9 Q& D7 M3 T# n
    4.4.3.1  CNeuralNet::CreateNet(创建神经网络的方法)

    - O( W! A3 L0 E) p2 \6 D
       我在前面没有对CNeuralNet的2个方法加以注释,这是因为我要为你显示它们的更完整的代码。这2个方法的第一个是网络创建方法CreateNet。它的工作就是把由细胞层SNeuronLayers所收集的神经细胞SNeurons聚在一起来组成整个神经网络,代码为:

    2 Y0 B; ]# h6 x8 Q0 ~0 R4 Q
    void CNeuralNet::CreateNet()
    {
        // 创建网络的各个层
        if (m_NumHiddenLayers > 0)
          {
          //创建第一个隐藏层[译注]
          m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr,
                                               m_NumInputs));
    1 G7 t1 m" m, J; w/ V- d  @
         for( int i=O; i<m_NumHiddenLayers-l; ++i)
         {
            m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr,
                                                      m_NeuronsPerHiddenLyr));
          }

    2 q. L/ C( t& H2 o: A( t
    [译注] 如果允许有多个隐藏层,则由接着for循环即能创建其余的隐藏层。
          // 创建输出层
          m_vecLayers.push_back(SNeuronLayer(m_NumOutput,m_NeuronsPerHiddenLyr));
       }

    ; s% G0 z# K. O
    else //无隐藏层时,只需创建输出层
       {
           // 创建输出层
            m_vecLayers.push_back(SNeuronLayer(m_NumOutputs, m_NumInputs));
       }
    }

    + a/ L6 ]4 C& h( `% W! i1 s# W: Q8 e0 x8 A& V
    4.4.3.2  CNeuralNet::Update(神经网络的更新方法)
    0 w7 o& k2 @9 f+ R5 H% r' p/ F5 T3 a
      Update函数(更新函数)称得上是神经网络的“主要劳动力”了。这里,输入网络的数据input是以双精度向量std::vector的数据格式传递进来的。Update函数通过对每个层的循环来处理输入*权重的相乘与求和,再以所得的和数作为激励值,通过S形函数来计算出每个神经细胞的输出,正如我们前面最后几页中所讨论的那样。Update函数返回的也是一个双精度向量std::vector,它对应的就是人工神经网络的所有输出。

    - m8 ]! w8 Y  v* g8 I1 q/ k
           请你自己花两分钟或差不多的时间来熟悉一下如下的Update函数的代码,这能使你正确理解我们继续要讲的其他内容:
    ( F' j; o) s& J# z
    vector<double> CNeuralNet::Update(vector<double> &inputs)
    {
         // 保存从每一层产生的输出
         vector<double> outputs;

    1 |' A5 m* @$ D
         int cWeight = 0;
    , G: Z4 l2 W% h" N: L
         // 首先检查输入的个数是否正确
         if (inputs.size() != m_NumInputs)
          {
              // 如果不正确,就返回一个空向量
              return outputs;
          }

    6 l. c) X  o. X: V6 _7 X4 o, n
         // 对每一层,...
         for (int i=0; i<m_NumHiddenLayers+1; ++i)
         {
           if (i>O)
             {
                inputs = outputs;
             }
        outputs.clear();
    7 V* p  g5 v6 j$ }4 w1 e2 t/ r
        cWeight = 0;

    ) K$ R6 R( M, S6 ~+ b$ [. s
        // 对每个神经细胞,求输入*对应权重乘积之总和。并将总和抛给S形函数,以计算输出
       for (int j=0; j<m_vecLayers.m_NumNeurons; ++j)
            {
              double netinput = 0;

    , S( H5 v+ I7 q9 O( b/ s1 \
              int NumInputs = m_vecLayers.m_vecNeurons[j].m_NumInputs;
    . Z" k. G# p/ ~1 n
             // 对每一个权重
             for (int k=O; k<NumInputs-l; ++k)
             {
                // 计算权重*输入的乘积的总和。
                netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[k] *
                        inputs[cWeight++];
             }

    ) r; m( C- I8 n0 C9 M" E0 I
            // 加入偏移值
            netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[NumInputs-1] *
                        CParams::dBias;
    6 C$ p% b# S6 ~" X: b! s
      别忘记每个神经细胞的权重向量的最后一个权重实际是偏移值,这我们已经说明过了,我们总是将它设置成为 –1的。我已经在ini文件中包含了偏移值,你可以围绕它来做文章,考察它对你创建的网络的功能有什么影响。不过,这个值通常是不应该改变的。
    , i! r: S" }0 `0 _' ~2 V, p/ H
         // 每一层的输出,当我们产生了它们后,我们就要将它们保存起来。但用Σ累加在一起的
         // 激励总值首先要通过S形函数的过滤,才能得到输出
    outputs.push_back(Sigmoid(netinput,CParams::dActivationResponse)); cWeight = 0:
        }
      }

    9 x$ s% m+ L  u, |1 ]
      return outputs;
    }

    5 e- P4 o, ?7 d. @$ [' M, W6 `$ Y8 t, l. e$ _3 M
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信

    0

    主题

    13

    听众

    77

    积分

    升级  75.79%

  • TA的每日心情
    开心
    2016-4-15 10:59
  • 签到天数: 4 天

    [LV.2]偶尔看看I

    网络挑战赛参赛者

    自我介绍
    机械学科博士在读
    回复

    使用道具 举报

    0

    主题

    13

    听众

    77

    积分

    升级  75.79%

  • TA的每日心情
    开心
    2016-4-15 10:59
  • 签到天数: 4 天

    [LV.2]偶尔看看I

    网络挑战赛参赛者

    自我介绍
    机械学科博士在读
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-16 15:07 , Processed in 0.444486 second(s), 66 queries .

    回顶部