! E; j' M- g4 E m' Q, h " ]! Y; E( c+ K' z 遗传算法以一种群体中的所有个体为对象,并利用随机化技术指导对一个被编码的参数空间进行高效搜索。其中,选择、交叉和变异构成了遗传算法的遗传操作;参数编码3 {/ Y- Q+ x( y* k4 G
、初始群体的设定、适应度函数的设计、遗传操作设计、控制参数设定五个要素组成了遗传算法的核心内容。 ( m# Y. j1 |* p4 n6 j; I 作为一种新的全局优化搜索算法,遗传算法以其简单通用、健壮性强、适于并行处理以及高效、实用等显著特点,在各个领域得到了广泛应用,取得了良好效果,并逐渐成7 D! j! H$ U. Z0 i: F' r
为重要的智能算法之一。 & c5 M# V& P) i+ l8 v/ F 2 B4 K$ k# C& Y; c. _& N , A6 h9 X6 u5 V, T9 E4 E; u
遗传算法的伪码: v' n9 O5 |9 Z( \+ v ) T s1 E6 m% {
4 c8 N& {% f+ A3 w; m procedure genetic algorithm ! D" N, O. b, `0 i3 `% @1 u. @2 x begin $ Q4 K' v* a& t. w6 X0 z! S
initialize a group and evaluate the fitness value ; (1) ' W' r t3 Y! ^; B( t ^# \* a S while not convergent (2) 3 M6 t' { f# _6 e% w8 K1 M$ | begin * v1 X. v( T$ O+ k$ ^+ A
select; (3)7 p! B) h4 \/ M8 _1 f' c! l% A" [
if random[0,1] crossover; (4) ! E8 W/ p R) X4 Z0 W if random (0,1) mutation; (5)& e5 Y& {- ^8 {/ l& Z9 A- e8 {3 k
end; ( [1 X! x2 J# |# y
end ' E7 u8 _. G' g, r. w+ Q 上述程序中有五个重要的环节: % d* l& V; G& x% u (1)编码和初始群体的生成:GA在进行搜索之前先将解空间的解数据表示成遗传空间的基因型串结构数据,这些串结构数据的不同组合便构成了不同的点。然后随机产% B# _" p2 c1 C% M9 [. _: O, N2 v
生N个初始串结构数据,每个串结构数据称为一个个体, . s! T D9 A) {4 `& L* s8 N' X) r N个体构成了一个群体。GA以这N个串结构数据作为初始点开始迭代。; Y2 i& Q. U0 [, W
8 Y8 A3 s! ^: n
6 i: a3 W& T: z+ K8 i: M7 _ 比如,旅行商问题中,可以把商人走过的路径进行编码,也可以对整个图矩阵进行编码。编码方式依赖于问题怎样描述比较好解决。初始群体也应该选取适当,如果选取的0 z5 ~, v' x. z3 d* w: c) D# L0 r
过小则杂交优势不明显,算法性能很差(数量上占了优势的老鼠进化能力比老虎强),群体选取太大则计算量太大。 " C) x6 @& T5 i: Z1 s ! r! Z) u9 g+ x' k* @& r k7 R9 d% d' n& G b# W% h (2)检查算法收敛准则是否满足,控制算法是否结束。可以采用判断与最优解的适配度或者定一个迭代次数来达到。 * W# ?4 [/ L9 l * |# t4 m* ~2 o
. W f. z8 h! h1 e, j) R- ]0 V: N& j6 w
(3)适应性值评估检测和选择:适应性函数表明个体或解的优劣性,在程序的开始也应该评价适应性,以便和以后的做比较。不同的问题,适应性函数的定义方式也不同! Q9 c& W2 t4 }9 b
。根据适应性的好坏,进行选择。选择的目的是为了从当前群体中选出优良的个体,使它们有机会作为父代为下一代繁殖子孙。遗传算法通过选择过程体现这一思想,进行4 J+ O6 \4 M5 S) ?% a% S
选择的原则是适应性强的个体为下一代贡献一个或多个后代的概率大。选择实现了达尔文的适者生存原则。 9 u: P- G5 _$ E) }8 V6 F . e B S. ? z+ ~9 l * H& s! s% X2 b: l$ W8 N4 c/ M (4)杂交:按照杂交概率(pc)进行杂交。杂交操作是遗传算法中最主要的遗传操作。通过杂交操作可以得到新一代个体,新个体组合了其父辈个体的特性。杂交体现- l8 H: n( ~+ T+ N9 p, R! u
了信息交换的思想。 7 _ [3 Y4 H8 @ ' S) c# G# V5 ?
- @# l& L. u% }/ e0 [4 t& [ 可以选定一个点对染色体串进行互换,插入,逆序等杂交,也可以随机选取几个点杂交。杂交概率如果太大,种群更新快,但是高适应性的个体很容易被淹没,概率小了搜 4 v) A" F9 R( [3 f, n索会停滞。2 t4 ?( U# w* `0 u% T9 E
- C) j2 ?- t: z* H$ O$ \' \# I
- K4 ~( E+ J9 [, d- Z
(5)变异:按照变异概率(pm)进行变异。变异首先在群体中随机选择一个个体,对于选中的个体以一定的概率随机地改变串结构数据中某个串的值。同生物界一样, GA中变异发生的概率很低。变异为新个体的产生提供了机会。+ q( V8 x- Y$ N r( u2 N: z8 }( H
9 A1 y6 A* X+ }- t# ]/ k" p
% I+ u( o: r1 m% q ) _, W: ^9 a, a/ s: C/ ]* S4 Y$ K
就像自然界的变异适和任何物种一样,对变量进行了编码的遗传算法没有考虑函数本身是否可导,是否连续等性质,所以适用性很强;并且,它开始就对一个种群进行操作9 Q4 E- V* F. d$ i6 n
,隐含了并行性,也容易找到“全局最优解”。 % I0 H3 }/ _6 ^% i3 g 7 }7 R3 Z9 T0 u& @4 R8 A6 C 3 H4 K9 v; D4 g4 f, U
禁忌搜索算法(Tabu Search,TS) $ u4 g# W" H% o2 J6 ]" j9 S # h. Q. a2 j9 y! W4 k4 F
( J5 p7 G S$ H) N( l
为了找到“全局最优解”,就不应该执着于某一个特定的区域。局部搜索的缺点就是太贪婪地对某一个局部区域以及其邻域搜索,导致一叶障目,不见泰山。禁忌搜索就是+ q' r Q/ R8 C. \- P2 ]
对于找到的一部分局部最优解,有意识地避开它(但不是完全隔绝),从而获得更多的搜索区间。兔子们找到了泰山,它们之中的一只就会留守在这里,其他的再去别的地- w7 @, P; [) p0 ^- L
方寻找。就这样,一大圈后,把找到的几个山峰一比较,珠穆朗玛峰脱颖而出。5 i) E9 p' o# m7 Z; v* l
" J3 b3 ]/ W7 {, j& P
8 m9 t8 k7 P }. ^ 当兔子们再寻找的时候,一般地会有意识地避开泰山,因为他们知道,这里已经找过,并且有一只兔子在那里看着了。这就是禁忌搜索中“禁忌表(tabu 0 w2 w$ T+ K$ g- V$ @9 ]
list)”的含义。那只留在泰山的兔子一般不会就安家在那里了,它会在一定时间后重新回到找最高峰的大军,因为这个时候已经有了许多新的消息,泰山毕竟也有一 ' L; T6 y/ l. F7 m4 r1 E c% O6 l个不错的高度,需要重新考虑,这个归队时间,在禁忌搜索里面叫做“禁忌长度(tabu . [; b: s/ R/ t r
length)”;如果在搜索的过程中,留守泰山的兔子还没有归队,但是找到的地方全是华北平原等比较低的地方,兔子们就不得不再次考虑选中泰山,也就是说,当+ A# ?( `9 o% `! k+ L6 p) ?2 Y% _
一个有兔子留守的地方优越性太突出,超过了“best * {- x4 a" R& f& g- O to - Z9 V+ t6 b m6 D
far”的状态,就可以不顾及有没有兔子留守,都把这个地方考虑进来,这就叫“特赦准则(aspiration ! r* j1 v+ K, | c, i
criterion)”。这三个概念是禁忌搜索和一般搜索准则最不同的地方,算法的优化也关键在这里。 : b5 E2 [$ }1 V' \ + g$ o: q5 T; w- p6 t - t1 z! l5 C* M
伪码表达: 5 S f: S# b! m2 q procedure tabu search; # D3 N9 K' w: w1 s$ ~; D
begin * x" V# k9 T/ Z+ I! s, L3 h4 U initialize a string vc at random,clear up the tabu list; ' y/ z8 Y6 K" f3 v8 C cur:=vc; 6 k: c0 a. {& ^) v0 r& U repeat . t. \% W+ e3 _ V2 x& t* X. z select a new string vn in the neighborhood of vc; # s" c* s3 U" \) c if va>best_to_far then {va is a string in the tabu list} # Y1 u; }/ ^$ C5 S" U i
begin 7 E2 j4 o% I! s# P4 W' f' T$ H
cur:=va; 1 ?! h: _) x. ]3 `9 C8 K let va take place of the oldest string in the tabu list; $ A- i. ~+ e5 n" `% q; @ best_to_far:=va; 2 p6 N3 A& H# u1 l1 j" J1 v
end else & x, [ v0 ]) Q; a! H5 S$ h) o+ f begin ! O6 g0 k3 w/ u8 x3 s; w
cur:=vn; $ O0 E4 ?& E, P9 a/ o let vn take place of the oldest string in the tabu list; % G. \1 Y2 t" n; l" x, Z: O end; 5 K* K& o' Z k8 d. \: `. ^ until (termination-condition); ( E5 ?2 ?4 n" H
end; & b) j0 M9 F. X1 F/ O9 H: l " l+ {# L9 u1 e8 i1 S 4 D- O1 j: B( `. z# ]+ { 以上程序中有关键的几点:: t/ a G% }( j. t3 |( J9 |
(1)禁忌对象:可以选取当前的值(cur)作为禁忌对象放进tabu 3 [2 e/ A* [, K, U2 O# O
list,也可以把和当然值在同一“等高线”上的都放进tabu ( [& T4 Q3 I7 n1 J list。$ f* [ x# Y2 U/ T; Q: {
(2)为了降低计算量,禁忌长度和禁忌表的集合不宜太大,但是禁忌长度太小容易循环搜索,禁忌表太小容易陷入“局部极优解”。 U1 u" m, v, }$ G) Z# `4 c' Q, ] & m/ g7 U" k+ M [% A 0 b& D$ b, l! w' h. }
(3)上述程序段中对best_to_far的操作是直接赋值为最优的“解禁候选解”,但是有时候会出现没有大于best_to_far的,候选解也全部被禁的 “死锁”状态,这个时候,就应该对候选解中最佳的进行解禁,以能够继续下去。& L1 o& [5 f% i0 t7 w
! R) H$ R- ?9 ^' L {; h1 J& L! l ; ]1 L+ ~2 r' j" _ (4)终止准则:和模拟退火,遗传算法差不多,常用的有:给定一个迭代步数;设定与估计的最优解的距离小于某个范围时,就终止搜索;当与最优解的距离连续若干步9 ~4 K! O$ x6 z4 X: s, X
保持不变时,终止搜索; ! D3 c) S5 J+ I, H$ ~ + }. X( A) }& c; o0 |5 e2 [, x3 O- E - ?) g2 Y+ M+ \# h6 ~
禁忌搜索是对人类思维过程本身的一种模拟,它通过对一些局部最优解的禁忌(也可以说是记忆)达到接纳一部分较差解,从而跳出局部搜索的目的。 V6 a: |8 F" [- A. o W : F2 E8 p; W# [+ c u0 u
, R7 Z; w4 r+ }+ o7 M
人工神经网络(Artificial Neural Network,ANN) , I1 m% O' w% l( Z) N: ~ ( v, e1 S; M9 l & s) ~) ^, e, o; L% I# c6 E/ O 神经网络从名字就知道是对人脑的模拟。它的神经元结构,它的构成与作用方式都是在模仿人脑,但是也仅仅是粗糙的模仿,远没有达到完美的地步。和冯·诺依曼机不同 + L' y$ ~1 Y9 J. l,神经网络计算非数字,非精确,高度并行,并且有自学习功能。 % y3 F0 H$ \- N9 N7 f F+ U3 f# H; S* m) g; t
% y; E; @7 G1 R4 N+ }6 `' J 生命科学中,神经细胞一般称作神经元,它是整个神经结构的最基本单位。每个神经细胞就像一条胳膊,其中像手掌的地方含有细胞核,称作细胞体,像手指的称作树突, ' N- `0 U$ h1 t8 H5 i8 j! k( U是信息的输入通路,像手臂的称作轴突,是信息的输出通路;神经元之间错综复杂地连在一起,互相之间传递信号,而传递的信号可以导致神经元电位的变化,一旦电位高: f' ?9 `3 Z0 u% u, f0 q8 n I
出一定值,就会引起神经元的激发,此神经元就会通过轴突传出电信号。; q3 a; V: ~$ j) {8 J8 c
3 i$ R! L9 t' A: n2 I
+ K3 Z) g; t: P3 p! o; x. r
而如果要用计算机模仿生物神经,就需要人工的神经网络有三个要素:(1)形式定义人工神经元;(2)给出人工神经元的连接方式,或者说给出网络结构;(3)给出* @3 C: |( b# {2 Q9 Z
人工神经元之间信号强度的定义。 . s8 z) [. ?+ l0 Q/ { ; R2 T$ y3 |& x% c& P " ?& r$ { |; M# i s8 u2 o/ f0 f
历史上第一个人工神经网络模型称作M-P模型,非常简单:. v) f. g2 e7 _. N
# [( r+ a+ \6 o + m% `! X8 q1 C u, Y+ d; u
其中, 7 j0 ^9 E7 [0 F6 w 表示神经元i在t时刻的状态,为1表示激发态,为0表示抑制态;" W! C: T$ f: x# i
是神经元i和j之间的连接强度;$ o. F9 T, g6 F. ~' ?
表示神经元i的阈值,超过这个值神经元才能激发。 0 N# M8 j* c0 u" D 这个模型是最简单的神经元模型。但是功能已经非常强大:此模型的发明人McCulloch和Pitts已经证明,不考虑速度和实现的复杂性,它可以完成当前数字 3 |, b1 z& a3 V% r计算机的任何工作。4 @7 F3 d& N# O1 x; W( D
& ?6 w: j, e" w6 n! p+ n+ P/ F0 d 9 Q/ E _7 O) j! T7 ^/ \* P1 a 以上这个M-P模型仅仅是一层的网络,如果从对一个平面进行分割的方面来考虑的话,M-P网络只能把一个平面分成个半平面,却不能够选取特定的一部分。而解决的 4 |5 g' H2 K U办法就是“多层前向网路”。$ y/ u4 t, \. a
! P3 p5 `6 A/ o# f4 C; t* J" i 1 g" M0 P: Y4 c+ n
图2 8 s6 D. O. Y- I O, _) Z. E2 e4 H 图2是多层前向网络的示意图。最下面的 ) p$ T/ x" J. V: A- p+ O+ O* V" _2 R 称作输入层,最上面一层称作输出层,任何一个中间层都接受来自前一层的所有输入,加工后传入后一层。每一层的神经元之间没有联系,输入输出层之间也没有直接联系* {) y1 J; ~- p+ v5 c+ }$ n
,并且仅仅是单向联系,没有反馈。这样的网络被称作“多层前向网络”。数据在输入后,经过每一层的加权,最后输出结果。/ `+ g3 g9 t) K$ i5 U% `/ M, q
r) I6 r3 B9 J/ A# f+ v- A- C; o& U 0 }1 q3 v8 u2 [ ^! B* G: y2 W4 i! t+ _
图3 0 \. g P& P/ X! e6 v
如图3,用可覆盖面来说明多层网络的功能:单层网络只能把平面分成两部分,双层网络就可以分割任意凸域,多层网络则可以分割任意区域。 5 l: i; ~+ Q; w" L3 x 为了让这种网络有合适的权值,必须给网络一定的激励,让它自己学习,调整。一种方法称作“向后传播算法(Back 4 V" s" i6 P+ K) ?; z# |. S
Propagation,BP)”,其基本思想是考察最后输出解和理想解的差异,调整权值,并把这种调整从输出层开始向后推演,经过中间层,达到输入层。 , X, W5 }6 x7 ~6 D * }8 L# \) t( g" D& v& S6 p
; U8 K0 P" q% e! S! [7 F4 m& S 可见,神经网络是通过学习来达到解决问题的目的,学习没有改变单个神经元的结构和工作方式,单个神经元的特性和要解决的问题之间也没有直接联系,这里学习的作用1 v; t* B& G: F% L" M. c# A
是根据神经元之间激励与抑制的关系,改变它们的作用强度。学习样本中的任何样品的信息都包含在网络的每个权值之中。7 B% Y& E0 [9 q; }4 P z( l
3 s2 R) x+ T- o7 o& C$ Q; M; h. ^ 0 Q9 M8 K* T# |- J" x. M5 E BP算法中有考察输出解和理想解差异的过程,假设差距为w,则调整权值的目的就是为了使得w最小化。这就又包含了前文所说的“最小值”问题。一般的BP算法采用% k9 X: L8 o8 O
的是局部搜索,比如最速下降法,牛顿法等,当然如果想要得到全局最优解,可以采用模拟退火,遗传算法等。当前向网络采用模拟退火算法作为学习方法的时候,一般成 n' ?9 o# x& r4 Q/ R( G
为“波尔兹曼网络”,属于随机性神经网络。 6 ^ `! D- v+ T1 ] G) e: G* \. F/ a2 i! ?; F ) W5 `+ D# V& E1 G
在学习BP算法学习的过程中,需要已经有一部分确定的值作为理想输出,这就好像中学生在学习的时候,有老师的监督。如果没有了监督,人工神经网络该怎么学习?; `- @7 N0 K. U4 W, c1 n V
% M9 X4 ^' w( b; i0 H1 b/ J
$ e [3 a( D; p1 ^0 s; Z/ f 就像没有了宏观调控,自由的市场引入了竞争一样,有一种学习方法称作“无监督有竞争的学习”。在输入神经元i的若干个神经元之间开展竞争,竞争之后,只有一个神7 K6 P4 v4 v7 R3 u9 q9 D
经元为1,其他均为0,而对于失败的神经元,调整使得向对竞争有利的方向移动,则最终也可能在一次竞争中胜利;5 E2 {+ c* d7 A5 F
5 y g$ X/ M5 w; k: H0 {$ Q" ^ ' R" h3 K- D6 H, C T, ]/ }: A# w- {4 g 人工神经网络还有反馈网络如Hopfield网络,它的神经元的信号传递方向是双向的,并且引入一个能量函数,通过神经元之间不断地相互影响,能量函数值不断下 $ d0 ~3 O% L7 {2 n" P" C降,最后能给出一个能量比较低的解。这个思想和模拟退火差不多。 # I- S, B. O$ o, z) d* Q * T" m! v" H. t& a' \ e
+ ~8 C- P, R- L
人工神经网络应用到算法上时,其正确率和速度与软件的实现联系不大,关键的是它自身的不断学习。这种思想已经和冯·诺依曼模型很不一样。% l# d8 y f3 G$ a3 Z. B1 B' D3 o
; Y0 p. H, \1 s9 p4 }4 s
) q/ {! }) q) i% e2 M6 U 总结 / y- \/ b6 q) ` 模拟退火,遗传算法,禁忌搜索,神经网络在解决全局最优解的问题上有着独到的优点,并且,它们有一个共同的特点:都是模拟了自然过程。模拟退火思路源于物理学中 # g7 t- N: F0 |( h: w. ~0 K固体物质的退火过程,遗传算法借鉴了自然界优胜劣汰的进化思想,禁忌搜索模拟了人类有记忆过程的智力过程,神经网络更是直接模拟了人脑。 , F/ w# G) k( X4 P8 \ 9 F2 k0 Y# {. W. @) z 6 _9 f0 z6 j+ y
6 ?/ c" B3 @! E 它们之间的联系也非常紧密,比如模拟退火和遗传算法为神经网络提供更优良的学习算法提供了思路。把它们有机地综合在一起,取长补短,性能将更加优良。 # z3 Z, d2 F( V0 X: p4 H8 K 3 _$ u9 n/ Y* J8 D0 b% J7 Y0 d7 r 这几种智能算法有别于一般的按照图灵机进行精确计算的程序,尤其是人工神经网络,是对计算机模型的一种新的诠释,跳出了冯·诺依曼机的圈子,按照这种思想来设计 . A @( ?( [0 x8 L9 l" Q9 z3 \的计算机有着广阔的发展前景# C( L# g/ y6 y0 l
禁忌搜索算法(Tabu Search,TS)1 x2 {) W1 ~% E( g7 Y
为了找到“全局最优解”,就不应该执着于某一个特定的区域。局部搜索的缺点就是太贪婪地对某一个局部区域以及其邻域搜索,导致一叶障目,不见泰山。禁忌搜索就是对于找到的一部分局部最优解,有意识地避开它(但不是完全隔绝),从而获得更多的搜索区间。兔子们找到了泰山,它们之中的一只就会留守在这里,其他的再去别的地方寻找。就这样,一大圈后,把找到的几个山峰一比较,珠穆朗玛峰脱颖而出。 ) n% z6 a4 v; n6 `当兔子们再寻找的时候,一般地会有意识地避开泰山,因为他们知道,这里已经找过,并且有一只兔子在那里看着了。这就是禁忌搜索中“禁忌表(tabu list)”的含义。那只留在泰山的兔子一般不会就安家在那里了,它会在一定时间后重新回到找最高峰的大军,因为这个时候已经有了许多新的消息,泰山毕竟也有一个不错的高度,需要重新考虑,这个归队时间,在禁忌搜索里面叫做“禁忌长度(tabu length)”;如果在搜索的过程中,留守泰山的兔子还没有归队,但是找到的地方全是华北平原等比较低的地方,兔子们就不得不再次考虑选中泰山,也就是说,当一个有兔子留守的地方优越性太突出,超过了“best to far”的状态,就可以不顾及有没有兔子留守,都把这个地方考虑进来,这就叫“特赦准则(aspiration criterion)”。这三个概念是禁忌搜索和一般搜索准则最不同的地方,算法的优化也关键在这里。 / T3 e; ?# T3 t8 S- e伪码表达: . h [, k& ~# K0 _procedure tabu search; ( E/ \% Q+ v- l: |begin 1 o9 e! N3 t( S7 iinitialize a string vc at random,clear up the tabu list; : G4 j3 k! w D( Kcur:=vc; 6 D6 Z* a- S! j# {& ~5 arepeat; u1 R4 _: C4 W0 o4 ^
select a new string vn in the neighborhood of vc; 8 W) s5 q8 J$ C: h" w. H
if va>best_to_far then {va is a string in the tabu list}, r- d) t% F: Y+ Z1 e
begin% t: h$ x- K# H3 V
cur:=va; ( D) d6 {4 o# k% F) y8 Q5 U3 [let va take place of the oldest string in the tabu list; ; k. a1 ]0 l" N1 Ybest_to_far:=va; 5 ]; [+ S1 M* G4 uend else . T) }& [( h# L- Vbegin$ G$ X5 l' L5 o
cur:=vn;. B; v, {! U4 d
let vn take place of the oldest string in the tabu list; 2 M/ n" t& ~% g$ l* v4 y. N" uend;2 B6 z6 K! L% {* e
until (termination-condition);- ?; `" ~- F0 m( [6 H
end;5 z5 X- h7 Q' `3 X9 ^& F
" i+ G& y6 Y' v- k/ c4 N2 v
以上程序中有关键的几点: ' [9 h: `1 x, `2 t/ O(1)禁忌对象:可以选取当前的值(cur)作为禁忌对象放进tabu list,也可以把和当然值在同一“等高线”上的都放进tabu list。 : o! U8 i$ P9 v3 I. A& k6 q- F$ z(2)为了降低计算量,禁忌长度和禁忌表的集合不宜太大,但是禁忌长度太小容易循环搜索,禁忌表太小容易陷入“局部极优解”。 ' r6 l; X" ^1 K0 d F(3)上述程序段中对best_to_far的操作是直接赋值为最优的“解禁候选解”,但是有时候会出现没有大于best_to_far的,候选解也全部被禁的“死锁”状态,这个时候,就应该对候选解中最佳的进行解禁,以能够继续下去。5 F; A) d7 p# E* i
(4)终止准则:和模拟退火,遗传算法差不多,常用的有:给定一个迭代步数;设定与估计的最优解的距离小于某个范围时,就终止搜索;当与最优解的距离连续若干步保持不变时,终止搜索; 2 J Y3 M2 c( r1 x" ^* R& P禁忌搜索是对人类思维过程本身的一种模拟,它通过对一些局部最优解的禁忌(也可以说是记忆)达到接纳一部分较差解,从而跳出局部搜索的目的。 : p: J+ M& p; g# S8 W人工神经网络(Artificial Neural Network,ANN) o* s% r m0 ]) G; o
神经网络从名字就知道是对人脑的模拟。它的神经元结构,它的构成与作用方式都是在模仿人脑,但是也仅仅是粗糙的模仿,远没有达到完美的地步。和冯·诺依曼机不同,神经网络计算非数字,非精确,高度并行,并且有自学习功能。 3 z3 ^6 `" X! O( g- m生命科学中,神经细胞一般称作神经元,它是整个神经结构的最基本单位。每个神经细胞就像一条胳膊,其中像手掌的地方含有细胞核,称作细胞体,像手指的称作树突,是信息的输入通路,像手臂的称作轴突,是信息的输出通路;神经元之间错综复杂地连在一起,互相之间传递信号,而传递的信号可以导致神经元电位的变化,一旦电位高出一定值,就会引起神经元的激发,此神经元就会通过轴突传出电信号。1 S: @4 X1 h! K' Y
而如果要用计算机模仿生物神经,就需要人工的神经网络有三个要素:(1)形式定义人工神经元;(2)给出人工神经元的连接方式,或者说给出网络结构;(3)给出人工神经元之间信号强度的定义。! U0 n9 r" ]. @8 h! b
历史上第一个人工神经网络模型称作M-P模型,非常简单:! e6 |' j, [8 A! q4 Q; S
其中, 表示神经元i在t时刻的状态,为1表示激发态,为0表示抑制态; 是神经元i和j之间的连接强度; 表示神经元i的阈值,超过这个值神经元才能激发。* s5 C+ S# k+ v
这个模型是最简单的神经元模型。但是功能已经非常强大:此模型的发明人McCulloch和Pitts已经证明,不考虑速度和实现的复杂性,它可以完成当前数字计算机的任何工作。7 o4 S3 X4 ~8 G+ n$ n
以上这个M-P模型仅仅是一层的网络,如果从对一个平面进行分割的方面来考虑的话,M-P网络只能把一个平面分成个半平面,却不能够选取特定的一部分。而解决的办法就是“多层前向网路”。9 B6 O# ?/ O3 O: p8 s4 x7 H4 e
图2$ U: T' ?$ X" H
图2 是多层前向网络的示意图。最下面的称作输入层,最上面一层称作输出层,任何一个中间层都接受来自前一层的所有输入,加工后传入后一层。每一层的神经元之间没有联系,输入输出层之间也没有直接联系,并且仅仅是单向联系,没有反馈。这样的网络被称作“多层前向网络”。数据在输入后,经过每一层的加权,最后输出结果。 , A$ C9 A f; ]2 P1 d图3 & o/ g0 q* O, k' B6 {6 R8 C1 M如图3,用可覆盖面来说明多层网络的功能:单层网络只能把平面分成两部分,双层网络就可以分割任意凸域,多层网络则可以分割任意区域。 . z' b! a2 B- u1 {+ j; y为了让这种网络有合适的权值,必须给网络一定的激励,让它自己学习,调整。一种方法称作“向后传播算法(Back Propagation,BP)”,其基本思想是考察最后输出解和理想解的差异,调整权值,并把这种调整从输出层开始向后推演,经过中间层,达到输入层。 : r' R# ]) r' s7 J0 k2 Y可见,神经网络是通过学习来达到解决问题的目的,学习没有改变单个神经元的结构和工作方式,单个神经元的特性和要解决的问题之间也没有直接联系,这里学习的作用是根据神经元之间激励与抑制的关系,改变它们的作用强度。学习样本中的任何样品的信息都包含在网络的每个权值之中。 ; \: T7 L! B1 b6 \BP算法中有考察输出解和理想解差异的过程,假设差距为w,则调整权值的目的就是为了使得w最小化。这就又包含了前文所说的“最小值”问题。一般的BP算法采用的是局部搜索,比如最速下降法,牛顿法等,当然如果想要得到全局最优解,可以采用模拟退火,遗传算法等。当前向网络采用模拟退火算法作为学习方法的时候,一般成为“波尔兹曼网络”,属于随机性神经网络。 2 C+ y) ?, `: \( t8 ~在学习BP算法学习的过程中,需要已经有一部分确定的值作为理想输出,这就好像中学生在学习的时候,有老师的监督。如果没有了监督,人工神经网络该怎么学习?5 ]8 l+ {* j/ M
就像没有了宏观调控,自由的市场引入了竞争一样,有一种学习方法称作“无监督有竞争的学习”。在输入神经元i的若干个神经元之间开展竞争,竞争之后,只有一个神经元为1,其他均为0,而对于失败的神经元,调整使得向对竞争有利的方向移动,则最终也可能在一次竞争中胜利; @ j& L! ~9 v4 Y, C人工神经网络还有反馈网络如Hopfield网络,它的神经元的信号传递方向是双向的,并且引入一个能量函数,通过神经元之间不断地相互影响,能量函数值不断下降,最后能给出一个能量比较低的解。这个思想和模拟退火差不多。 / E+ o3 k- }( `8 ^- f9 F人工神经网络应用到算法上时,其正确率和速度与软件的实现联系不大,关键的是它自身的不断学习。这种思想已经和冯·诺依曼模型很不一样。& |& j' n8 s' z
总结 ) s w* |( T* u模拟退火,遗传算法,禁忌搜索,神经网络在解决全局最优解的问题上有着独到的优点,并且,它们有一个共同的特点:都是模拟了自然过程。模拟退火思路源于物理学中固体物质的退火过程,遗传算法借鉴了自然界优胜劣汰的进化思想,禁忌搜索模拟了人类有记忆过程的智力过程,神经网络更是直接模拟了人脑。 % r1 F( f8 G, w( T% z$ s它们之间的联系也非常紧密,比如模拟退火和遗传算法为神经网络提供更优良的学习算法提供了思路。把它们有机地综合在一起,取长补短,性能将更加优良。 & K" k/ |9 V I/ p b& r' Z这几种智能算法有别于一般的按照图灵机进行精确计算的程序,尤其是人工神经网络,是对计算机模型的一种新的诠释,跳出了冯·诺依曼机的圈子,按照这种思想来设计的计算机有着广阔的发展前景) l8 Z3 \- U3 w, T8 `