|
4.4 CNeuralNet.h(神经网络类的头文件) 在CNeuralNet.h 文件中,我们定义了人工神经细胞的结构、定义了人工神经细胞的层的结构、以及人工神经网络本身的结构。首先我们来考察人工神经细胞的结构。
- _- Y% ^; k. u2 _4.4.1 SNeuron(神经细胞的结构)
1 V- Y1 T4 I/ E% `- d# u 这是很简单的结构。人工神经细胞的结构中必须有一个正整数来纪录它有多少个输入,还需要有一个向量std:vector来表示它的权重。请记住,神经细胞的每一个输入都要有一个对应的权重。 ' R* C0 {- h4 D% B
Struct SNeuron { // 进入神经细胞的输入个数 int m_NumInputs;
; I; l( m f6 J( F" b- Z l: v // 为每一输入提供的权重 vector<double> m_vecWeight; # ]2 ]4 R" V9 B# H F2 c
//构造函数 SNeuron(int NumInputs); }; ! j. g, A @5 Q% t
以下就是SNeuron 结构体的构造函数形式: 4 B, @" |% H6 O8 U' B
SNeuron::SNeuron(int NumInputs): m_NumInputs(NumInputs+1) ( // 我们要为偏移值也附加一个权重,因此输入数目上要 +1 for (int i=0; i<NumInputs+1; ++i) { // 把权重初始化为任意的值 m_vecWeight.push_back(RandomClamped()); } } 由上可以看出,构造函数把送进神经细胞的输入数目NumInputs作为一个变元,并为每个输入创建一个随机的权重。所有权重值在-1和1之间。 , q& H# A6 u2 f1 t
这是什么? 我听见你在说。这里多出了一个权重! 不错,我很高兴看到你能注意到这一点,因为这一个附加的权重十分重要。但要解释它为什么在那里,我必须更多地介绍一些数学知识。回忆一下你就能记得,激励值是所有输入*权重的乘积的总和,而神经细胞的输出值取决于这个激励值是否超过某个阀值(t)。这可以用如下的方程来表示:
+ g, |7 y- l: F9 u$ `; X w1x1 + w2x2 + w3x3 +...+ wnxn >= t
8 b5 n- Z4 C- k 上式是使细胞输出为1的条件。因为网络的所有权重需要不断演化(进化),如果阀值的数据也能一起演化,那将是非常重要的。要实现这一点不难,你使用一个简单的诡计就可以让阀值变成权重的形式。从上面的方程两边各减去t,得: ! x5 Y8 D2 v9 z" n. m3 k( _
w1x1 + w2x2 + w3x3 +...+ wnxn –t >= 0 ) }4 R' O0 E. l, Y. M5 x! m+ L
这个方程可以再换用一种形式写出来,如下: ! p! ]1 V# o/ r* w
w1x1 + w2x2 + w3x3 +...+ wnxn + t *(–1) >= 0
6 O; U3 w3 v0 ^. k+ L- O3 } 到此,我希望你已能看出,阀值t为什么可以想像成为始终乘以输入为 -1的权重了。这个特殊的权重通常叫偏移(bias),这就是为什么每个神经细胞初始化时都要增加一个权重的理由。现在,当你演化一个网络时,你就不必再考虑阀值问题,因为它已被内建在权重向量中了。怎么样,想法不错吧?为了让你心中绝对敲定你所学到的新的人工神经细胞是什么样子,请再参看一下图12。
7 \* F9 k7 s0 R. ~* T& }& {& q$ c' q
0 y2 Q) `4 A @, }( `5 u# [( a* }: V" e+ x
# t5 T5 t# i4 `) R' Q# ^) x" s5 b/ V图12 带偏移的人工神经细胞。
' A/ q1 X; O/ N/ b& P' Q; R4.4.2 SNeuronLayer(神经细胞层的结构) 神经细胞层SNeuronLayer的结构很简单;它定义了一个如图13中所示的由虚线包围的神经细胞SNeuron所组成的层。
$ B7 Q: b3 e7 P$ q6 {
; U) k9 |' S7 n6 F9 l: E1 k/ `, n
) z$ m6 ^- l7 h% Y* M9 i4 r g3 g0 w2 t9 i8 I% u3 ?
1 v+ k5 Z: f4 b 图13 一个神经细胞层。
a* _8 ~, v& g# B5 h: ~1 |5 Z% a. W: T 以下就是层的定义的源代码,它应该不再需要任何进一步的解释: 1 E; n; [% v6 a. [
struct SNeuronLayer { // 本层使用的神经细胞数目 int m_NumNeurons;
. W1 O- n; W0 m$ Q- X4 J$ y // 神经细胞的层 vector<SNeuron> m_vecNeurons; * `( | [1 v# T0 n: C6 c+ t4 c
SNeuronLayer(int NumNeurons, int NumInputsPerNeuron); }; . m" J% D5 R. j; J7 y
4.4.3 CNeuralNet(神经网络类) % H; P* F( o9 Y& R/ L$ g5 G+ ~
这是创建神经网络对象的类。让我们来通读一下这一个类的定义: . f/ K' S- v7 o( ]% p
class CNeuralNet { private: int m_NumInputs; ! f9 o8 b+ b8 j5 X V
int m_NumOutputs; 3 g! `, l( t& _. Q7 t& ~) g
int m_NumHiddenLayers; 5 a; T# P' ~% M. j& p
int m_NeuronsPerHiddenLyr; 9 O' q j" } X( ]3 P1 Y
// 为每一层(包括输出层)存放所有神经细胞的存储器 vector<SNeuronLayer> m_vecLayers; & r# s: V* q, q! D& y6 T; [
所有private成员由其名称容易得到理解。需要由本类定义的就是输入的个数、输出的个数、隐藏层的数目、以及每个隐藏层中神经细胞的个数等几个参数。
7 p4 D6 `- m; A. B% S( qpublic: 1 H+ ^- o% g4 ], P; G
CNeuralNet();
2 d+ D; ` A6 t* ^ 该构造函数利用ini文件来初始化所有的Private成员变量,然后再调用CreateNet来创建网络。
% r- g$ e( c9 O. g7 V' h8 i9 V4 B // 由SNeurons创建网络 void CreateNet(); 8 J5 M9 a7 s9 h6 ^# r2 H8 H5 ~/ a
我过一会儿马上就会告诉你这个函数的代码。
' ?5 J/ ]2 i* Z) _$ r1 D' C0 [ // 从神经网络得到(读出)权重 vector<double> GetWeights()const; 4 G& ?* K2 A, }2 O9 `+ A' @/ i
由于网络的权重需要演化,所以必须创建一个方法来返回所有的权重。这些权重在网络中是以实数型向量形式表示的,我们将把这些实数表示的权重编码到一个基因组中。当我开始谈论本工程的遗传算法时,我将为您确切说明权重如何进行编码。 ; _9 V i/ f1 U. Y; m
// 返回网络的权重的总数 int GetNumberOfWeights()const;
- @: e9 `2 X1 m% V // 用新的权重代替原有的权重 void PutWeights(vector<double> &weights);
5 o, q @- G4 X2 h: r, ~ G$ v 这一函数所做的工作与函数GetWeights所做的正好相反。当遗传算法执行完一代时,新一代的权重必须重新插入神经网络。为我们完成这一任务的是PutWeight方法。 % I0 j/ a7 U( g( t3 g% u
// S形响应曲线 inline double Sigmoid(double activation, double response);
+ U/ d/ G+ W. @. t! v" L3 l0 \$ _* g 当已知一个神经细胞的所有输入*重量的乘积之和时,这一方法将它送入到S形的激励函数。
+ ^+ k- e, R+ E! Z // 根据一组输入,来计算输出 vector<double> Update(vector<double> &inputs);
5 Z* n: d. J5 _4 o对此Update函数函数我马上就会来进行注释的。
! Z2 z' V' c) U}; // 类定义结束 ) ?) Y4 ]+ k. P. p, Y/ ~ I- a6 @
4.4.3.1 CNeuralNet::CreateNet(创建神经网络的方法) 9 c3 O7 g7 s7 ~) U3 h. Q
我在前面没有对CNeuralNet的2个方法加以注释,这是因为我要为你显示它们的更完整的代码。这2个方法的第一个是网络创建方法CreateNet。它的工作就是把由细胞层SNeuronLayers所收集的神经细胞SNeurons聚在一起来组成整个神经网络,代码为: 1 k8 ?: t" E1 p) f$ X O9 y; h* `
void CNeuralNet::CreateNet() { // 创建网络的各个层 if (m_NumHiddenLayers > 0) { //创建第一个隐藏层[译注] m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr, m_NumInputs));
# B! J* L! i, w for( int i=O; i<m_NumHiddenLayers-l; ++i) { m_vecLayers.push_back(SNeuronLayer(m_NeuronsPerHiddenLyr, m_NeuronsPerHiddenLyr)); }
* N8 _/ L: G+ f7 @# X1 s/ u& T8 N[译注] 如果允许有多个隐藏层,则由接着for循环即能创建其余的隐藏层。 // 创建输出层 m_vecLayers.push_back(SNeuronLayer(m_NumOutput,m_NeuronsPerHiddenLyr)); }
1 |( f3 a0 w i) w2 melse //无隐藏层时,只需创建输出层 { // 创建输出层 m_vecLayers.push_back(SNeuronLayer(m_NumOutputs, m_NumInputs)); } }
J2 Z! @( _- ^5 o% D
* a& F! g2 K% t( N4.4.3.2 CNeuralNet::Update(神经网络的更新方法)
- E; p/ m" ?8 y/ Q, w Update函数(更新函数)称得上是神经网络的“主要劳动力”了。这里,输入网络的数据input是以双精度向量std::vector的数据格式传递进来的。Update函数通过对每个层的循环来处理输入*权重的相乘与求和,再以所得的和数作为激励值,通过S形函数来计算出每个神经细胞的输出,正如我们前面最后几页中所讨论的那样。Update函数返回的也是一个双精度向量std::vector,它对应的就是人工神经网络的所有输出。 0 X5 s) f$ N( }' \' S* V
请你自己花两分钟或差不多的时间来熟悉一下如下的Update函数的代码,这能使你正确理解我们继续要讲的其他内容: # Y# \6 N! A8 R: E& C; N7 o/ V7 Y
vector<double> CNeuralNet::Update(vector<double> &inputs) { // 保存从每一层产生的输出 vector<double> outputs;
- W- M( ^2 E- x1 _ int cWeight = 0;
) b4 V( v2 I6 w$ Z; I8 } // 首先检查输入的个数是否正确 if (inputs.size() != m_NumInputs) { // 如果不正确,就返回一个空向量 return outputs; } 7 G3 P3 c1 d8 x$ I- g6 @1 [0 w- |
// 对每一层,... for (int i=0; i<m_NumHiddenLayers+1; ++i) { if (i>O) { inputs = outputs; } outputs.clear();
) ^! F- U! t1 W5 M4 `5 o W" j( i cWeight = 0; ]! n; H$ d" Y5 `- C" v3 Q
// 对每个神经细胞,求输入*对应权重乘积之总和。并将总和抛给S形函数,以计算输出 for (int j=0; j<m_vecLayers.m_NumNeurons; ++j) { double netinput = 0;
& y" V' S$ D3 Z( I$ H$ } int NumInputs = m_vecLayers.m_vecNeurons[j].m_NumInputs; 4 P1 R$ Q9 B: z# q
// 对每一个权重 for (int k=O; k<NumInputs-l; ++k) { // 计算权重*输入的乘积的总和。 netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[k] * inputs[cWeight++]; } # U; |2 L2 ^, Z1 C g% I
// 加入偏移值 netinput += m_vecLayers.m_vecNeurons[j].m_vecWeight[NumInputs-1] * CParams::dBias;
' p; c! N8 z. A% v j 别忘记每个神经细胞的权重向量的最后一个权重实际是偏移值,这我们已经说明过了,我们总是将它设置成为 –1的。我已经在ini文件中包含了偏移值,你可以围绕它来做文章,考察它对你创建的网络的功能有什么影响。不过,这个值通常是不应该改变的。
/ i" r: A& ^6 M. ?! Q/ } // 每一层的输出,当我们产生了它们后,我们就要将它们保存起来。但用Σ累加在一起的 // 激励总值首先要通过S形函数的过滤,才能得到输出 outputs.push_back(Sigmoid(netinput,CParams::dActivationResponse)); cWeight = 0: } }
3 G' J3 s. L6 H0 ?4 L$ w% K return outputs; } 3 y) o" D( q' _
8 q( I D3 @; _# ]0 P- M, T |