数学建模社区-数学中国

标题: 我见过的最脑残也是最好懂的人工神经网络算法教程(四) [打印本页]

作者: 数学中国YY主管    时间: 2016-3-2 09:22
标题: 我见过的最脑残也是最好懂的人工神经网络算法教程(四)
4.4  CNeuralNet.h(神经网络类的头文件)
  在CNeuralNet.h 文件中,我们定义了人工神经细胞的结构、定义了人工神经细胞的层的结构、以及人工神经网络本身的结构。首先我们来考察人工神经细胞的结构。

/ T5 G) ?" }8 n- r. T) [
4.4.1  SNeuron(神经细胞的结构)

7 g+ M0 L+ y, X" n$ K! w  n; H3 z
   这是很简单的结构。人工神经细胞的结构中必须有一个正整数来纪录它有多少个输入,还需要有一个向量std:vector来表示它的权重。请记住,神经细胞的每一个输入都要有一个对应的权重。

7 B# G: O& M& T- ]8 }* h
Struct SNeuron
{
     // 进入神经细胞的输入个数
     int m_NumInputs;

( z+ ^, Y; w  U
     // 为每一输入提供的权重
     vector<double> m_vecWeight;

, m& I' A1 l3 D3 T
     //构造函数
     SNeuron(int NumInputs);
  };

+ e. Q% X( f" R6 e5 z0 U& A! K" N
以下就是SNeuron 结构体的构造函数形式:
' U$ G9 \$ N' a3 l  g
SNeuron::SNeuron(int NumInputs): m_NumInputs(NumInputs+1)
(
     // 我们要为偏移值也附加一个权重,因此输入数目上要 +1
     for (int i=0; i<NumInputs+1; ++i)
     {
         // 把权重初始化为任意的值
         m_vecWeight.push_back(RandomClamped());
     }
}
  由上可以看出,构造函数把送进神经细胞的输入数目NumInputs作为一个变元,并为每个输入创建一个随机的权重。所有权重值在-1和1之间。
" e/ g& K+ s* ^: n: x* Y9 [
        这是什么? 我听见你在说。这里多出了一个权重! 不错,我很高兴看到你能注意到这一点,因为这一个附加的权重十分重要。但要解释它为什么在那里,我必须更多地介绍一些数学知识。回忆一下你就能记得,激励值是所有输入*权重的乘积的总和,而神经细胞的输出值取决于这个激励值是否超过某个阀值(t)。这可以用如下的方程来表示:
' g4 ?# ?/ H% M
         w1x1 + w2x2 + w3x3 +...+ wnxn >= t
& r  H5 H& m# t8 P
  上式是使细胞输出为1的条件。因为网络的所有权重需要不断演化(进化),如果阀值的数据也能一起演化,那将是非常重要的。要实现这一点不难,你使用一个简单的诡计就可以让阀值变成权重的形式。从上面的方程两边各减去t,得:
7 ?* j( n2 |$ J6 O' p
        w1x1 + w2x2 + w3x3 +...+ wnxn –t >= 0

5 O& J& |) v7 d5 ^2 l: a: k
这个方程可以再换用一种形式写出来,如下:
+ @; j% E) A7 o  N. H6 j7 J) b# ^
        w1x1 + w2x2 + w3x3 +...+ wnxn + t *(–1) >= 0

# {9 a  l1 F, D3 i$ T
  到此,我希望你已能看出,阀值t为什么可以想像成为始终乘以输入为 -1的权重了。这个特殊的权重通常叫偏移(bias),这就是为什么每个神经细胞初始化时都要增加一个权重的理由。现在,当你演化一个网络时,你就不必再考虑阀值问题,因为它已被内建在权重向量中了。怎么样,想法不错吧?为了让你心中绝对敲定你所学到的新的人工神经细胞是什么样子,请再参看一下图12。
$ j' i6 s. s; Y

3 ^, r9 Q) }' `6 @- p, Z
) A5 p: |# i* q. D& ]
3 P: R: o- H4 ^/ h0 k
图12 带偏移的人工神经细胞。

  ^2 v! y: p3 n6 q3 G4 o: T& t) v
4.4.2  SNeuronLayer(神经细胞层的结构)
   神经细胞层SNeuronLayer的结构很简单;它定义了一个如图13中所示的由虚线包围的神经细胞SNeuron所组成的层。
5 z& c1 T# I) m: ^
" e6 d: w6 O% ~5 p0 M6 ^
3 [" f( k! D( y+ u+ ^! y: ?* E

$ D. w& R* ?* N3 H0 c2 D
3 d3 ^0 |4 ^8 }- ~4 D) @
     图13 一个神经细胞层。

* W6 I& G% E5 ~: h9 N. x) [
  以下就是层的定义的源代码,它应该不再需要任何进一步的解释:

' X6 h  O  Z% @, Q4 v5 Z& }4 g
struct SNeuronLayer
{
    // 本层使用的神经细胞数目
   int                     m_NumNeurons;
4 ^1 a! ~6 G# `' O; s
      // 神经细胞的层
   vector<SNeuron>   m_vecNeurons;

6 x! n9 v; x, R6 C2 w
  SNeuronLayer(int NumNeurons, int NumInputsPerNeuron);
};

. F' C8 U( L, E5 W! J3 {2 v9 ^
4.4.3  CNeuralNet(神经网络类)
* G2 ]! d2 f6 `+ {) R
  这是创建神经网络对象的类。让我们来通读一下这一个类的定义:

; h3 B" v* z# J
class CNeuralNet
{
private:
    int                m_NumInputs;
  G8 u  R6 [% Y( _" X4 V+ k
    int                m_NumOutputs;
5 a- S: d% H- a* |; @0 |$ E
    int                m_NumHiddenLayers;
! p7 T% l' V& y( ?% Y" ^# T6 R  X
    int         m_NeuronsPerHiddenLyr;
5 Z: p4 @9 S% |. ~
    // 为每一层(包括输出层)存放所有神经细胞的存储器
    vector<SNeuronLayer>  m_vecLayers;

  t$ A/ ~5 N& u4 ]. U
  所有private成员由其名称容易得到理解。需要由本类定义的就是输入的个数、输出的个数、隐藏层的数目、以及每个隐藏层中神经细胞的个数等几个参数。

6 ~  P) x) L1 i4 S
public:
" ~  ]* T9 ?( U/ e0 S3 Q% w5 P. e( X
     CNeuralNet();

! M4 O, l% V& ?: B
该构造函数利用ini文件来初始化所有的Private成员变量,然后再调用CreateNet来创建网络。

, m$ t! C& z) f* {$ }# ^
     // 由SNeurons创建网络
     void    CreateNet();
8 `# q3 u5 |% ?1 \' m; ~4 f
我过一会儿马上就会告诉你这个函数的代码。
9 d6 B1 k" i: e5 Z. e7 [
     // 从神经网络得到(读出)权重
     vector<double>   GetWeights()const;
- l' j  Y  i3 I7 b& Y8 W
  由于网络的权重需要演化,所以必须创建一个方法来返回所有的权重。这些权重在网络中是以实数型向量形式表示的,我们将把这些实数表示的权重编码到一个基因组中。当我开始谈论本工程的遗传算法时,我将为您确切说明权重如何进行编码。

: Z! v0 Y" R& e5 ?
    // 返回网络的权重的总数
    int GetNumberOfWeights()const;
0 J% X- l0 u* R; t6 T6 _
    // 用新的权重代替原有的权重
    void PutWeights(vector<double> &weights);

' T+ ?$ h. G2 r" j8 J* ]& x0 s; D
        这一函数所做的工作与函数GetWeights所做的正好相反。当遗传算法执行完一代时,新一代的权重必须重新插入神经网络。为我们完成这一任务的是PutWeight方法。
9 H% R6 r' V3 F6 Q- `% B) x
     // S形响应曲线
    inline double  Sigmoid(double activation, double response);

  }& J& a- u4 j
     当已知一个神经细胞的所有输入*重量的乘积之和时,这一方法将它送入到S形的激励函数。

) _2 ]+ i) N9 z1 U# F/ V- o- X
     // 根据一组输入,来计算输出
     vector<double> Update(vector<double> &inputs);

6 c' Z  U: _/ x/ U' r) p
对此Update函数函数我马上就会来进行注释的。

, z. ]. Q2 @2 c9 u( k9 Y& c
}; // 类定义结束
$ K( W$ j( D8 Q) B# C! a
4.4.3.1  CNeuralNet::CreateNet(创建神经网络的方法)

9 p3 [5 m: c, s/ W3 H
   我在前面没有对CNeuralNet的2个方法加以注释,这是因为我要为你显示它们的更完整的代码。这2个方法的第一个是网络创建方法CreateNet。它的工作就是把由细胞层SNeuronLayers所收集的神经细胞SNeurons聚在一起来组成整个神经网络,代码为:

" t+ U+ W& d/ m) E8 d
void CNeuralNet::CreateNet()
{
    // 创建网络的各个层
    if (m_NumHiddenLayers > 0)
      {
      //创建第一个隐藏层[译注]
      m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr,
                                           m_NumInputs));
2 U" c0 K% Q  y
     for( int i=O; i<m_NumHiddenLayers-l; ++i)
     {
        m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr,
                                                  m_NeuronsPerHiddenLyr));
      }
, _0 K( f3 |7 Q  A  `2 x$ T- d& m6 o
[译注] 如果允许有多个隐藏层,则由接着for循环即能创建其余的隐藏层。
      // 创建输出层
      m_vecLayers.push_back(SNeuronLayer(m_NumOutput,m_NeuronsPerHiddenLyr));
   }

8 _4 X8 |% w9 m/ r9 u3 L
else //无隐藏层时,只需创建输出层
   {
       // 创建输出层
        m_vecLayers.push_back(SNeuronLayer(m_NumOutputs, m_NumInputs));
   }
}

7 g8 C. g: t, j7 K0 e2 N! @( e. m
4.4.3.2  CNeuralNet::Update(神经网络的更新方法)
% I0 C8 K. p6 C3 _
  Update函数(更新函数)称得上是神经网络的“主要劳动力”了。这里,输入网络的数据input是以双精度向量std::vector的数据格式传递进来的。Update函数通过对每个层的循环来处理输入*权重的相乘与求和,再以所得的和数作为激励值,通过S形函数来计算出每个神经细胞的输出,正如我们前面最后几页中所讨论的那样。Update函数返回的也是一个双精度向量std::vector,它对应的就是人工神经网络的所有输出。

+ w. n- H; t8 c$ Q9 l7 \  j4 Z
       请你自己花两分钟或差不多的时间来熟悉一下如下的Update函数的代码,这能使你正确理解我们继续要讲的其他内容:
4 b. L  l$ [0 s
vector<double> CNeuralNet::Update(vector<double> &inputs)
{
     // 保存从每一层产生的输出
     vector<double> outputs;

5 w! Y0 k; K, o% s3 v! [2 I
     int cWeight = 0;
/ R! W: p# `- v$ b+ f* \
     // 首先检查输入的个数是否正确
     if (inputs.size() != m_NumInputs)
      {
          // 如果不正确,就返回一个空向量
          return outputs;
      }
/ H  c' P% ?" Q3 v
     // 对每一层,...
     for (int i=0; i<m_NumHiddenLayers+1; ++i)
     {
       if (i>O)
         {
            inputs = outputs;
         }
    outputs.clear();
* A" e# B3 M$ [2 q& |5 s0 N  e) {0 P
    cWeight = 0;

% H+ `" Q" e9 k2 A
    // 对每个神经细胞,求输入*对应权重乘积之总和。并将总和抛给S形函数,以计算输出
   for (int j=0; j<m_vecLayers.m_NumNeurons; ++j)
        {
          double netinput = 0;
0 L6 u5 V6 S5 W! D* p
          int NumInputs = m_vecLayers.m_vecNeurons[j].m_NumInputs;
; f; y& A* k$ j  P; D
         // 对每一个权重
         for (int k=O; k<NumInputs-l; ++k)
         {
            // 计算权重*输入的乘积的总和。
            netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[k] *
                    inputs[cWeight++];
         }

3 z; I: [/ C! D. c
        // 加入偏移值
        netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[NumInputs-1] *
                    CParams::dBias;

) z$ q% k5 _7 ~6 @5 H
  别忘记每个神经细胞的权重向量的最后一个权重实际是偏移值,这我们已经说明过了,我们总是将它设置成为 –1的。我已经在ini文件中包含了偏移值,你可以围绕它来做文章,考察它对你创建的网络的功能有什么影响。不过,这个值通常是不应该改变的。
& m% D8 ?8 L/ @7 K% S+ H- L+ F( ]
     // 每一层的输出,当我们产生了它们后,我们就要将它们保存起来。但用Σ累加在一起的
     // 激励总值首先要通过S形函数的过滤,才能得到输出
outputs.push_back(Sigmoid(netinput,CParams::dActivationResponse)); cWeight = 0:
    }
  }
7 y- V& L  }, w) e& j5 p  f
  return outputs;
}
2 X3 L  Y1 q% ?
& o. O5 x# d) E- C0 |& q

作者: fly370023196    时间: 2016-4-7 19:17
6666666666666666666666666  x2 M1 b, S$ O% z. I2 X6 o  {

作者: fly370023196    时间: 2016-4-7 19:17
6666666666666666666666666
9 {; R0 ~1 H- w




欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5